[MÚSICA] [MÚSICA] Nesse módulo, nós vamos falar um pouco da interpretação dos estimadores e também das suas propriedades. Veja que o "Beta chapéu 1", agora, será a variação do "y chapéu" dada uma variação de "x". Ou seja, ele vai medir a variação no valor previsto de "y", dada uma variação de "x" "ceteris paribus". O "Beta chapéu 0" é o valor médio da previsão de "y" quando "x" é igual a zero. Vamos ver um exemplo agora. [MÚSICA] Usando a PNAD de 2014, nós estimamos o seguinte modelo. O salário previsto, que é o salário com o "chapeuzinho" em cima, vai ser igual a menos 0,52, mais 1,41 anos de educação. Aqui nós estamos medindo o salário em reais por hora. Assim, nós temos um efeito de 1,41 no valor médio previsto de "y", dada uma variação de 1 ano de escolaridade. Nós podemos ver outro exemplo aqui, que seria o efeito da educação sobre a fecundidade das mulheres. Também usando dados da PNAD, para uma amostra de mulheres adultas idade fértil, nós estimamos o seguinte modelo: o número de filhos "chapéu", ou seja, previsto pela regressão, vai ser igual a 3,14 menos 0,11 educação. Se esse efeito é causal, cada ano de educação reduz, em média, em 0,11 o número de filhos. Ou seja, cada nove anos de educação a mais, as mulheres têm um filho a menos. Vamos, agora, formalizar algumas hipóteses que já assumimos para a estimação dos parâmetros pelos métodos que discutimos nas aulas passadas. Veremos que essas hipóteses são superimportantes para falarmos das propriedades dos estimadores, porque não basta derivarmos os estimadores, temos que verificar se eles têm propriedades desejáveis, em geral, ligadas ao não-viés, ou consistência, e também à eficiência daquele estimador, ou seja, à variância daquele estimador. À primeira hipótese identificaremos como RLS 1, ou seja, a hipótese de Regressão Linear Simples 1. Essa hipótese diz sobre a linearidade do modelo nos parâmetros. Ou seja, o modelo verdadeiro, ou modelo populacional, é uma função linear dos parâmetros "Beta 0" e "Beta 1", que é exatamente o modelo que a gente vinha assumindo aqui, "y" igual a "Beta 0" mais "Beta 1" "x", mais "u". Note que a linearidade é sobre os parâmetros e não sobre a relação entre "y" e "x". Assim, nós podemos ter modelos, por exemplo, com logaritmo de "y" ou "x", "x" ao quadrado, sem nenhum problema na hipótese de linearidade nos parâmetros. A hipótese RLS 2 diz sobre a amostra aleatória. Como nós não temos os dados da população, nós precisamos de uma amostra aleatória, ou seja, que seja representativa para a população com "n" observações. Nós representamos essa hipótese da forma como está colocado aqui. Ou seja, nós temos pares ordenados de "x" e "y" para "n" observações, ou seja, para "i" indo de 1 até "n". A terceira hipótese diz sobre a variabilidade de "x" na amostra. Ou seja, somatório de "xi" menos "x-barra" ao quadrado tem que ser maior que zero. Nós vimos que essa hipótese foi utilizada em vários momentos da derivação dos estimadores, tanto para a condição de segunda ordem do estimador de mÃnimos quadrados ordinários e de máxima verossimilhança. Essa é considerada uma hipótese relativamente tranquila de ser aceita, pois, sem variabilidade em "x", nós não conseguimos identificar o efeito em "y". A quarta hipótese é conhecida por exogeneidade de "x", ou média condicional zero. Nessa hipótese, nós temos que a esperança de "u" dado "x" é igual a zero. Nós assumimos essa hipótese no método dos momentos, como uma hipótese importante, da independência entre "x" e "u". Essa é uma das hipóteses mais difÃceis de assumirmos no nosso modelo, pois sabemos que existem várias outras variáveis dentro do nosso termo de erro que podem ser correlacionadas com "x". No entanto, lembre-se daquela discussão que fizemos quando apresentamos dados experimentais. Para dados experimentais, nós temos que a alocação de "x" é aleatória, ou seja, não depende dos outros fatores que estão dentro de "u". Nós podemos analisar, por exemplo, o modelo de regressão simples aplicado a dados experimentais sem nenhum problema, contanto que não tenhamos nenhum daqueles problemas que discutimos sobre dados experimentais. Dadas essas quatro hipóteses, nós conseguimos escrever o nosso modelo populacional para cada observação da nossa amostra, indexando agora pelo "izinho". Além disso, podemos escrever, também, a hipótese de média condicional para cada "izinho". Ou seja, a esperança de "ui", dado "xi" vai ser também igual a zero para todo "i" da nossa amostra. Sob essas quatro hipóteses, nós podemos dizer que o nosso estimador de mÃnimos quadrados ordinários vai ser não-viesado para os parâmetros verdadeiros. Ou seja, a esperança do "Beta chapéu 0" condicional a "x", vai ser igual ao "Beta 0" verdadeiro, e a esperança do "Beta chapéu 1" condicional a "x" vai ser igual ao "Beta 1" verdadeiro. Agora, nós vamos focar o nosso estudo no estimador de mÃnimos quadrados ordinários, pois ele precisa de menos hipóteses inicialmente para ser derivado, e vimos que, sob as condições que analisamos, ele vai ser equivalente aos demais estimadores, de máxima verossimilhança e de métodos dos momentos. Em cursos mais avançados, veremos que cada um desses estimadores vai ser utilizado a depender do problema que temos. Vamos, agora, demonstrar o teorema do não-viés do estimador de MQO. Vamos começar pela demonstração do não-viés do estimador "Beta chapéu 1". A ideia da demonstração vai ser a mesma para o "Beta chapéu 1" e para o "Beta chapéu 0". Primeiro, nós vamos substituir o nosso modelo verdadeiro dentro da formulação do nosso estimador. Isso porque queremos colocar o nosso estimador "Beta chapéu 1" em função do "Beta 1" verdadeiro, para depois analisar a esperança condicional desse termo. Ao substituir o "y izinho" pelo modelo verdadeiro, ou seja, o "Beta 0", mais o "Beta 1" "xi", mais "ui", nós chegamos na seguinte relação: o "Beta chapéu 1" vai ser igual ao "Beta 1" mais o somatório de "xi" menos "x-barra", vezes "ui", dividido pelo somatório de "xi" menos "x-barra" ao quadrado. Agora, vamos chamar o termo somatório de "xi" menos "x-barra" ao quadrado de Soma dos Quadrados Totais de "x", ou SQT de "x", para facilitar a visualização. Assim encontramos o "Beta chapéu 1" em função do "Beta 1". O segundo passo seria passar a esperança matemática condicional a "x" sobre esses dois termos. A esperança de "Beta chapéu 1" dado "x" vai ser igual, então, à esperança do "Beta 1" mais somatório de "xi" menos "x-barra" vezes "ui", dividido pelo SQT de "x", tudo isso condicional a "x". Note que o "Beta 1" é um parâmetro, é o parâmetro verdadeiro, ou seja, é uma constante. A esperança de uma constante mais outro termo vai ser a esperança da constante mais a esperança desse outro termo; e a constante tem o valor esperado exatamente igual ao valor dela. Então nós temos que a esperança do "Beta chapéu 1" dado "x", vai ser igual ao "Beta 1" mais a esperança desse segundo termo. No caso desse segundo termo, como estamos condicionando os nossos resultados "x", nós interpretamos como se fossem constantes em "x". Ou seja, nós temos, aqui, a esperança de um termo constante, que é o termo em função de "x", vezes "ui", que é uma variável aleatória. Assim, podemos escrever esse segundo termo como o somatório de "xi", menos "x-barra" vezes a esperança de "ui" dado "x", tudo isso dividido pelo SQT de "x". Pela hipótese RLS 4, que acabamos de ver, temos que esse termo, esperança de "ui" dado "x" vai ser igual a zero, o que faz com que a gente anule todo esse segundo termo do lado direito da equação. Ou seja, a esperança do "Beta chapéu 1" dado "x", vai ser exatamente igual ao "Beta 1" que é o parâmetro verdadeiro. Isso significa que o nosso estimador, que também é uma variável aleatória, tem o seu primeiro momento igual ao parâmetro verdadeiro. A ideia é que, se observássemos infinitas amostras da nossa população, para cada uma dessas amostras, terÃamos um valor de "Beta chapéu 1". O primeiro momento da distribuição amostral de todos esses possÃveis valores de "Beta chapéu 1" para todas essas possÃveis amostras seria igual ao "Beta 1" verdadeiro. Então a gente espera que a nossa amostra, sendo uma boa amostra, seja representativa para essa média. A demonstração para o "Beta chapéu 0" usa a mesma lógica. Ou seja, a gente pega a fórmula do "Beta chapéu 0", que derivamos para mÃnimos quadrados ordinários, substituÃmos o nosso modelo verdadeiro em "y", para termos o "Beta chapéu 0" em função do "Beta 0" verdadeiro. Aqui nós vamos substituir dentro do "y-barra". Está marcadinho em verde a fórmula que vamos substituir. Assim, o "Beta chapéu 0" será igual ao "Beta 0", mais "Beta 1" "x-barra", mais "u-barra", menos "Beta chapéu 1" "x-barra". Podemos agregar três termos: O termo de "Beta 0", o termo de "Beta 1", menos "Beta chapéu 1" vezes o "x-barra" e o somatório de "ui" dividido por "n", que seria o nosso "u-barra". Ao passarmos a esperança matemática condicional a "x" sobre cada um desses termos, nós temos que a esperança de "Beta 0" será exatamente igual ao "Beta 0", porque ele é uma constante; a esperança desse segundo termo será igual a zero porque nós sabemos (e acabamos de derivar) que o nosso "Beta chapéu 1" é não viesado para "Beta 1". Ou seja, a esperança de "Beta 1" menos "Beta chapéu 1" vai ser igual a zero. E a esperança do último termo vai ser a esperança de uma soma de "ui" dividido por "n". Dada a nossa hipótese de regressão linear simples quatro, nós temos que esse terceiro termo será igual a zero. Ou seja, a esperança do "Beta chapéu 0" vai ser igual ao "Beta 0" verdadeiro, e nós temos que os dois estimadores que vimos do modelo de regressão simples serão não-viesados sob essas quatro hipóteses. É importante notarmos que o não-viés desses estimadores representa que esses efeitos são causais; então podemos dizer que temos efetivamente o efeito de "x" sobre "y". [MÚSICA] [MÚSICA] [MÚSICA]