[MÚSICA] [MÚSICA] Nesta aula, nós vamos mostrar vários exemplos de teste de hipóteses individuais usando a estatÃstica "t", que derivamos na aula anterior. Relembrando que precisamos derivar a distribuição de probabilidades do nosso estimador para poder calcular a estatÃstica "t", e essa estatÃstica vai ter uma distribuição "t" de Student, que é uma distribuição padronizada e tabelada em vários livros de estatÃtica. Vimos, então, que, adicionando a hipótese sobre a distribuição dos erros condicionais a "x", nós conseguimos derivar a distribuição do nosso estimador. A distribuição de probabilidades do nosso estimador "Beta chapéu j" condicional a "x" terá, então, uma distribuição normal com média "Beta j" e variância "Sigma 2" dividido PELO SOMATÓRIO de "R chapéu ij" ao quadrado. O primeiro teste que veremos é o teste que chamamos de bicaudal. O nosso objetivo é testar determinado valor para o "Beta j", que é o efeito de "xj" sobre "y". A essa hipótese chamaremos de hipótese nula, e a identificamos por "H", com um "zerinho" embaixo. Assim, podemos testar que o nosso "Beta j" seja igual a "a", uma constante qualquer. A hipótese 1, ou a hipótese alternativa, testa, então, que esse parâmetro não tem esse valor especÃfico, ou seja, que "Beta j" é diferente de "a". Usando, então, o teorema da estatÃstica "t", que vimos na aula anterior, podemos escrever a estatÃstica do teste apenas substituindo o "Beta j" pelo valor do "Beta j" sob "H0", ou seja, "a". Assim, a nossa estatÃstica, a qual chamaremos de "tj", será igual ao "Beta chapéu j" menos "a", dividido pelo erro-padrão do nosso estimador. Nós vamos rejeitar a hipótese nula quando a nossa estatÃstica "tj" for, em módulo, maior do que o valor crÃtico desse teste. Nessa tabela, nós temos vários valores para "t", que tem uma distribuição "t de Student", e diferentes graus de liberdade. Se desejamos um "Alfa", ou nÃvel de tolerância, é igual a 5% e temos 1000 observações, veja que o valor crÃtico do teste é igual a 1,96. Ou seja, para uma variável que tem uma distribuição "t de Student", 95% da distribuição se concentra entre menos 1,96 e mais 1,96. Isso significa que valores da estatÃstica maiores que 1,96 ou menores que menos 1,96 representam, conjuntamente, 5%. Como a distribuição "t" é uma distribuição simétrica, nós podemos distribuir esses 5% igualmente dos dois lados, ou seja, 2,5% são os valores da "t" maiores que 1,96 e 2,5% são os valores da "t" menores que menos 1,96. Ou seja, esses valores são possÃveis, mas com uma chance muito baixa. Veremos um exemplo desse teste para a elasticidade-renda da carne usando dados da pesquisa de orçamentos familiares do IBGE de 2009. Estimando o modelo "log-log", ou seja, o logaritmo da quantidade consumida de carne em função do logaritmo da renda dos consumidores, nós obtemos o seguinte modelo. Lembre-se de que no modelo "log-log", o parâmetro que acompanha o "x" é exatamente a elasticidade entre o consumo de carne e a renda. Assim, a elasticidade renda estimada, aqui, é de 0,10. Cada 1% a mais de renda, aumenta-se o consumo de carne em 0,10% por cento. Podemos, por exemplo, testar a hipótese de que a verdadeira elasticidade-renda seja zero contra a hipótese de que ela seja diferente de zero. A estatÃstica "t", nesse caso, será, então, 0,1021 menos 0 (de "Beta j" sob "H0"), dividido por 0,0584, que é o erro padrão do nosso "Beta chapéu 1", ou seja, a estatÃstica "t" é igual a 1,75. Nós temos, então, um n de 431 observações e dois parâmetros estimados, ou seja, o número de graus de liberdade deste modelo é de 429. Se desejamos um erro de 5%, nós podemos usar aquele 1,96 que vimos na tabela anterior. O gráfico que mostramos agora compara o valor da estatÃstica "t" que encontramos (de 1,75) com o valor de 1,96 e menos 1,96. Como o valor de 1,75 é menor que 1,96, nós temos que a estatÃstica "t" está dentro da área de não-rejeição da hipótese nula, ou seja, não podemos dizer que a elasticidade-renda da carne, para os brasileiros, seja diferente de zero. PoderÃamos usar o mesmo modelo para testar se essa elasticidade-renda é igual a 1, por exemplo. Bens com elasticidades-renda maior que 1 são considerados bens de luxo, ou seja, para cada 1% a mais de renda, as pessoas consomem mais de 1% daquele produto. A estatÃstica "t", então, para o teste da elasticidade-renda verdadeira ser igual a 1, contra a hipótese de que ela seja diferente de 1, será 0,1021 menos 1 dividido por 0,0584, o que gera o valor de menos 15,37. Como temos o mesmo número de graus de liberdade nesse modelo, nós vamos comparar novamente essa estatÃstica "t" com os valores crÃticos que vimos, a 5% de erro. Note que o menos 15,37 é muito inferior ao menos 1,96, que é o valor crÃtico que consideramos, ou seja, ele pertence à área de rejeição da hipótese nula. A partir desse teste, então, rejeitamos a hipótese nula de uma elasticidade renda igual a 1. Usando o mesmo modelo, podemos também fazer um teste monocaudal. O que muda nesse teste é a forma como calculamos o valor crÃtico do teste. Um exemplo de teste monocaudal para o nosso modelo seria a hipótese nula de elasticidade-renda igual a zero contra uma hipótese alternativa de elasticidade-renda positiva. O que desejamos responder, com esse teste, é: será que a renda não influencia no consumo de carne ou será que ela, simplesmente, influencia positivamente, sem valor especÃfico? Note que a estatÃstica "t" é a mesma estatÃstica "t" do teste bicaudal para elasticidade renda igual a zero. No entanto, agora, comparamos essa estatÃstica "t" com o valor crÃtico de 1,645, ou seja, usamos apenas um lado da distribuição de probabilidade. Só que, agora, compararemos a nossa estatÃstica "t" com o valor crÃtico de menos 1,645. Isso porque jogamos todo o nosso erro para apenas um lado da distribuição. Assim, comparamos com o valor crÃtico diferente, de 1,645. Note que nós acumulamos todo o nosso erro apenas de um lado da distribuição. A comparação com esse valor crÃtico, agora, nos diz que rejeitamos a hipótese nula em favor da hipótese alternativa, de que essa elasticidade-renda seja positiva. Além de usar a estatÃstica "t" para testar hipóteses sobre os nossos parâmetros, nós podemos, também, usar a medida de "p-valor". O "p-valor" mede o menor nÃvel de significância ao qual a hipótese nula seria rejeitada. Ou seja, definimos o "p-valor" da seguinte forma. Ele vai ser igual à probabilidade do módulo de uma variável T (maiúsculo), que é uma variável aleatória qualquer com a distribuição "t de Student", ser maior que a estatÃstica "t" que calculamos. Assim, ao invés de compararmos com o valor crÃtico da distribuição "t", nós calculamos o valor de "Alfa linha" usando a própria estatÃstica do teste. Se temos "p-valores" muito pequenos, nós temos muita evidência contra "H0". Veja, aqui, comparação no gráfico. Para um "p-valor" muito pequenininho, isso significa que a estatÃstica "t", em módulo, é muito grande, ou seja, a estatÃstica "t" estaria na área de rejeição da hipótese nula. Para um "p-valor" muito grande, nós temos pouca evidência contra a hipótese nula. Ou seja, um "p-valor" muito grande é obtido quando temos estatÃsticas "t" muito próximas a zero. Nesse caso, estamos na região de aceitação da hipótese nula, ou seja, temos pouca evidência contra ela. Antes de prosseguirmos para a próxima aula, vale a pena discutirmos um pouco como o tamanho da amostra influencia no teste de hipótese. Note que, conforme "n" cresce, ou seja, o número de observações da nossa amostra é muito grande, temos que a variância do nosso estimador diminui. Nesses casos, é aconselhável usarmos um critério mais rigoroso para o nÃvel de erro, ou seja, "Alfas" menores, em torno de 1%. Outra discussão importante quando falamos de inferência é a diferença entre a significância econômica e a significância estatÃstica de determinado parâmetro. Podemos ter um efeito que seja estatisticamente significante, mas com baixa significância econômica. Um efeito estatÃsticamente significante é um efeito diferente de zero, ou seja, positivo ou negativo. Em geral, detectamos a significância estatÃstica fazendo um teste bicaudal com hipótese nula de que aquele parâmetro seja zero. A significância econômica diz respeito ao tamanho do efeito, ou seja, o tamanho do estimador encontrado. Ou seja, podemos ter uma elasticidade-renda de carne pequena, mas diferente de zero. Podemos, também, ter estimadores bastante altos, mas que não são estatisticamente significantes, ou seja, não são diferentes de zero, estatisticamente. Não podemos dizer que aquele parâmetro seja diferente de zero, pode ser que não haja efeito, mesmo com o estimador de alta magnitude. É sempre importante considerarmos os resultados dos testes estatÃsticos sobre os parâmetros para inferir o efeito de uma variável em outra. [MÚSICA] [MÚSICA] [MÚSICA]