[MÚSICA] [MÚSICA] Nesta aula, nós vamos discutir algumas propriedades do estimador de MQO que vimos na aula passada. Lembre-se que nós derivamos a forma do nosso estimador de dois jeitos. A primeira usando a álgebra matricial e a segunda, álgebra de somatório, pelo teorema de Frisch-Waugh-Lovell. Dadas essas formulações, nós vamos, agora, discutir sob quais hipóteses esses estimadores têm boas propriedades. A primeira hipótese, a qual chamaremos de RLM 1 (de regressão linear múltipla) seria a linearidade nos parâmetros. Assim como vimos no modelo de regressão linear simples, a linearidade requerida aqui é sobre os parâmetros e não sobre a relação entre "y" e "x". Lembre-se que tal linearidade facilita a derivação das condições de primeira ordem e de segunda ordem do modelo de mÃnimos de quadrados ordinários. A segunda hipótese, RLM 2, é a hipótese de amostragem aleatória. Agora, nós temos uma amostra aleatória com "k" mais uma variáveis observadas: "x1" "x2", "x3" até "xk" mais o "y" para cada "i" da nossa amostra. Até agora, essas hipóteses simplesmente estenderam o modelo de regressão linear simples para o modelo de regressão linear múltipla. A terceira hipótese, porém, é um pouco diferente. À hipótese RLM 3 chamamos de "inexistência de multicolinearidade perfeita". Nós temos a validade dessa hipótese quando três condições são satisfeitas. A primeira, quando existe variabilidade em todas as variáveis explicativas (note que essa primeira condição é equivalente à que vimos na regressão simples); a segunda condição é que não haja uma combinação linear perfeita entre as variáveis explicativas. Nós conseguimos enxergar a importância dessa segunda condição quando observamos a nossa matriz de "x". Quando temos uma variável que não varia na nossa amostra, por exemplo, todo mundo na nossa amostra tem a mesma escolaridade igual a oito anos, nós temos que a coluna de oitos que identifica essa variável é uma combinação linear perfeita da coluna de uns que nos ajuda a identificar o parâmetro beta zero no modelo. Outro exemplo de combinação linear perfeita entre as variáveis é quando observamos, por exemplo, o preço de um produto em reais e o preço do produto em dólares no mesmo perÃodo de tempo, em que a mesma taxa de câmbio foi utilizada. Nesse caso, suponha que a nossa variável "x1" seja a variável do preço em reais e a variável "x2" seja a variável do preço em dólar. Nós teremos que "x1" será igual a uma constante (que é dada pelo câmbio) vezes a variável "x2", ou seja, uma combinação linear perfeita. A terceira condição é a de que precisamos ter mais observações do que parâmetros desconhecidos. Nós também podemos enxergar a importância dessa condição olhando para a nossa matriz "x", que deve ter um posto de "k" mais 1. Essas três condições, juntas, equivalem a dizer que a nossa matriz "x linha" "x" é uma matriz singular, ou seja, ela é uma matriz de posto completo e, portanto, tem inversa. Vimos que essa condição era importante para a derivação do nosso estimador no formato matricial e para a demonstração das condições de segunda ordem. A hipótese RLM 4 é a hipótese de exogeneidade dos "x" ou hipótese de média condicional. Agora, a esperança de "u" condicional a todos os "x" que são incluÃdos como variáveis explicativas deve ser igual a zero, ou seja, os erros devem ser independentes de todas as variáveis explicativas. Se essas quatro hipóteses são válidas, nós conseguimos demonstrar o teorema de não-viés do estimador de MQO. Ou seja, a esperança do nosso estimador, condicional a "x", vai ser igual ao parâmetro verdadeiro. Se utilizarmos o formato matricial, fica fácil demonstrarmos esse teorema, como podemo ver no slide a seguir. Substituindo, aqui, o nosso vetor "y" pelo modelo verdadeiro, que é dado por "x" "Beta" mais "u", nós podemos escrever que o nosso vetor "Beta chapéu" vai ser igual "x linha" "x" a menos 1 "x linha" "x" "Beta" mais "x linha" "x" a menos 1 "x linha" "u". Ou seja, "Beta chapéu" vai ser igual ao vetor de "Betas" mais "x linha" "x" a menos 1 "x linha" "u". Para verificarmos a propriedade do não-viés, precisamos passar a esperança matemática condicional em "x" sobre essa fórmula. Assim, temos que a esperança do Beta chapéu" condicional a "x" vai ser igual à esperança de "Beta" mais "x linha" "x" a menos 1 "x linha" "u" condicional a "x". Como o vetor "Beta" é um vetor de constantes, nós podemos tirá-lo da esperança. O mesmo fazemos com o "x linha" "x" a menos 1 "x linha", pois, como condicionamos a "x", tornamos "x" constante. Por fim, podemos escrever que a esperança do "Beta chapéu" dado "x" vai ser igual ao nosso vetor "Beta" mais "x linha" "x" a menos 1 "x linha" esperança de "u" dado "x". Note que acabamos de ver que a hipótese 4 diz sobre a esperança de "u" condicional a "x". Como temos uma amostra aleatória, a esperança condicional vale para cada "i" da nossa amostra. Ou seja, a esperança de "u" dado "x" vai ser um vetor de zeros e temos que a esperança de "Beta chapéu" dado "x" será igual ao vetor "Beta" de parâmetros verdadeiros, ou seja, o nosso estimador de MQO é um estimador não viesado sob essas quatro hipóteses. [MÚSICA] [MÚSICA] [MÚSICA]