[MÚSICA] [MÚSICA] Nesta aula, nós vamos introduzir alguns conceitos importantes para a gente fazer a inferência estatÃstica, ou seja, testar hipóteses sobre os parâmetros do nosso modelo. Para realizar esses testes de hipóteses, é importante que derivemos a distribuição dos estimadores. Até agora nós apenas discutimos dois momentos dessa distribuição: o primeiro momento, que é a esperança matemática, e o segundo momento centrado, que é a variância desse estimador. Para podermos derivar a distribuição desses estimadores, nós teremos que introduzir mais uma hipótese importante no nosso modelo. Além disso, nós vamos precisar, também, delimitar uma tolerância, algum erro, para que a gente possa testar hipóteses. Esse erro é o que chamamos "Erro do Tipo I". O erro do tipo I é a probabilidade de considerarmos a hipótese que estamos testando falsa, quando, na verdade, ela é verdadeira. Em outras palavras, quando temos uma distribuição de probabilidades, todos os valores são possÃveis. Imagine uma distribuição normal, que vai de menos infinito à mais infinito. Se estamos testando, por exemplo, a lei da demanda, em que a elasticidade-preço é negativa, mesmo que o parâmetro verdadeiro seja negativo, se temos uma distribuição que vai de menos infinito a mais infinito, qualquer valor positivo também é possÃvel. A chance, então, de observarmos uma elasticidade-preço positiva, quando, na verdade, em média, ela é negativa, vai ser muito pequenininha. Para colocarmos uma tolerância para esse tipo de erro (acumulando todas as suas chances muito pequenininhas de ocorrência de algo que sabemos que é pouco provável), é que calculamos o nosso "Alfa", que é o nosso nÃvel de tolerância. Em geral, utilizamos o valor de 1%, 5% ou 10%, a depender do número de observações que temos no nosso modelo. Faremos essa discussão um pouco mais para frente. Nós podemos ver que o nosso estimador será uma função dos erros do modelo. Podemos ver isso ao substituir, na fórmula do nosso estimador, o modelo verdadeiro, como fizemos para calcular o viés e a variância do estimador. Assim, sabemos que a distribuição do nosso estimador, condicional a "x", vai depender, então, da distribuição dos erros do nosso modelo. E é essa hipótese sobre a distribuição dos erros do modelo que vamos acrescentar na lista de cinco hipóteses que já havÃamos assumido. A essa hipótese, no modelo de regressão linear múltipla, chamaremos de RLM 6. A RLM 6, então, diz que o erro populacional, "u", condicional a "x", é normalmente distribuÃdo, com média 0 e variância "Sigma 2". Se nós temos uma amostra aleatória, nós podemos, também, escrever essa hipótese em termos matriciais. Ou seja, o vetor "u", condicional à matriz "x", tem uma distribuição normal multivariada, com média 0 (aqui, temos um vetor de zeros), e variância "Sigma 2" vezes uma identidade "n". A partir da hipótese sobre os erros condicionais a "x", nós temos, também, a distribuição condicional de "y", ou seja, a distribuição de "y" (que é a nossa variável de interesse, a nossa variável dependente) é a mesma distribuição dos nossos erros. Essa relação entre as distribuições é bastante importante na prática, pois, quando estamos estudando uma variável "y" qualquer, podemos entender a sua distribuição de probabilidade e, a partir da distribuição da nossa variável de interesse, intuir qual é a distribuição dos nossos erros. Suponha, por exemplo, uma variável "y" que meça o número de consultas médicas que um indivÃduo frequenta ao longo de um ano. Essa é uma variável de contagem em determinado perÃodo de tempo. Sabemos, então, que a distribuição desta variável "y" segue uma Poisson. Assim, uma vez que sabemos que "y" segue uma distribuição de Poisson, nós podemos intuir qual seria a distribuição dos nossos erros. Lembre-se de que, se conhecermos a distribuição do nosso "y", nós podemos usar o método de máxima verossimilhança, que é o método de informação completa. Outro exemplo bastante utilizado é quando "y" mede alguma receita financeira, por exemplo. Nesse caso, sabemos que a receita é uma variável positiva. PoderÃamos, por exemplo, supor que essa variável tem uma distribuição "log-normal". Como vimos no módulo anterior, nós poderÃamos considerar que "y" seja o logaritmo dessa variável. Se a variável de receita tem uma distribuição "log-normal", sabemos que o "log" dessa variável vai ter uma distribuição normal de menos infinito a mais infinito. Nesse caso, poderÃamos usar o logaritmo da variável "y" para atingir essa hipótese. Daà a importância de conhecermos a natureza de geração de dados de "y". Note, também, que essa hipótese já engloba duas outras hipóteses que havÃamos assumido. Isso porque os erros condicionais a "x" têm uma distribuição normal com média 0, que seria a nossa hipótese quatro, de média condicional 0, e a hipótese de que a variância é igual a "Sigma 2", que foi a hipótese de homocedasticidade. Esse gráfico ilustra a hipótese seis aplicada ao "y" condicional a "x" no nosso modelo. Essa hipótese diz que essa distribuição é igual para todos os valores de "x" que consideramos aqui no nosso modelo. Sabemos que a esperança de "y" condicional a "x" vai ser igual à reta de regressão populacional e sabemos, também, que a variância de "y" dado "x" vai ser igual a "Sigma 2", que é a mesma variância dos nossos erros. Agora, adicionando a sexta hipótese, nós podemos enunciar o teorema da distribuição de probabilidade dos estimadores. O teorema diz que, se são válidas as seis primeiras hipóteses de regressão linear múltipla, as quais chamaremos de hipóteses do modelo de regressão linear clássico, os nossos estimadores terão distribuição normal com média igual ao parâmetro verdadeiro. Assim, o estimador do parâmetro que identifica o efeito da variável "xj", sobre "y", "Beta chapéu j", condicional a "x", terá uma distribuição normal com média "Beta j", ou seja, a esperança do "Beta chapéu j", condicional a x, é igual ao parâmetro verdadeiro "Beta j" e variância, igual a "Sigma 2" sobre o somatório do "r chapéu ij" ao quadrado, que é a variância que derivamos nos módulos anteriores. Podemos, também, fazer uma padronização nesse estimador, subtraindo a média dele e dividindo pela raiz da variância. Essa transformação terá uma distribuição normal padrão, o que vai facilitar a realização de testes de hipóteses. Mas note que, mesmo sob esse teorema, ainda não observamos um parâmetro importante, aqui, para fazer essa conta, que é o nosso "Sigma 2". Quando substituÃmos o nosso "Sigma 2" pelo seu estimador, nós temos o teorema da distribuição "t de Student". Ou seja, essa variável transformada, com a substituição do "Sigma 2" sobre o "Sigma chapéu 2" é o que chamamos de estatÃstica "t". A estatÃstica "t" será, então, o nosso estimador, subtraÃdo do parâmetro verdadeiro, dividido pelo erro-padrão do estimador. E essa estatÃstica tem uma distribuição "t de Student" com "n" menos "k" menos 1 graus de liberdade, sendo que "n" é o número de observações na amostra e "k" é o número de variáveis que incluÃmos no nosso modelo. Agora, nós podemos, então, calcular a estatÃstica "t" para várias hipóteses do nosso "Beta j". Agora nós podemos usar essa estatÃstica "t" e supor várias hipóteses sobre o "Beta j". A comparação da estatÃstica "t" para vários valores de "Beta j", com os valores crÃticos, que são calculados a partir daquele nÃvel de tolerância que comentamos há pouco, vai nos permitir fazer a inferência estatÃstica e concluir sobre essas hipóteses testadas. Nós veremos vários exemplos de testes de hipóteses na próxima aula. [MÚSICA] [MÚSICA] [MÚSICA]