[MÚSICA] [MÚSICA] Nesta aula nós vamos discutir algumas relações importantes sobre os testes de hipóteses. A primeira relação que teremos é entre a estatÃstica "t" e a estatÃstica "F". Para testes bicaudais individuais, nós temos que: a estatÃstica "t" ao quadrado é exatamente igual a estatÃstica "F". Ou seja, a distribuição "t de Student" com "n" menos "k" menos 1 graus de liberdade ao quadrado converge para uma distribuição "F" com 1 vÃrgula "n" menos "k" menos 1 graus de liberdade. Podemos fazer a demonstração dessa relação usando a regressão simples. Tendo, então, um modelo em que "y" é igual a "Beta 0" mais "Beta 1" "x1" mais "u", suponha que queremos testar a hipótese nula de que "Beta 1" é igual a 0 contra a alternativa de que "Beta 1" seja diferente de 0. Note que, num modelo de regressão simples, a soma dos quadrados explicados será igual ao "Beta chapéu 1", vezes o somatório do "xi" menos "x-barra" ao quadrado. Assim, usando a estatÃstica "F" em função do "R-quadrado" para a significância geral da regressão (pois, se "Beta 1" é igual a 0, não há regressão simples), note que, neste modelo, a soma dos quadrados explicados será "Beta chapéu 1" ao quadrado vezes o somatório de "x1" menos "x-barra" ao quadrado. Se utilizarmos a estatÃstica "F" em função do "R-quadrado" para o modelo de significância geral da regressão, nós temos que: a "F" será igual à soma dos quadrados explicados, dividido pela soma dos quadrados dos resÃduos, sobre n menos 2, ou seja, isso será igual ao "Beta chapéu 1" ao quadrado vezes o somatório do "xi" menos "x-barra" ao quadrado, dividido por "Sigma 2". Se passarmos o termo quadrado de "x" para o denominador, nós teremos que o "Beta chapéu 1" ao quadrado sobre o "Sigma 2" dividido pelo somatório do "xi" menos "x-barra" ao quadrado será igual a "Beta chapéu 1" menos 0, ao quadrado, dividido pelo erro padrão do "Beta chapéu 1" ao quadrado, ou seja, exatamente o quadrado da estatÃstica "t" para um teste em que "Beta 1" é igual a 0. Vocês poderão generalizar essa transformação usando o teorema de Frisch-Waugh-Lovell, por exemplo. Outra relação interessante é entre o "R-quadrado" ajustado e a estatÃstica "t". Lembre-se que o "R-quadrado" sempre aumenta quando incluÃmos uma variável explicativa no nosso modelo. No caso do "R-ajustado", ele só aumentará quando a estatÃstica "t" da variável incluÃda for, em módulo, maior que 1. Lembre-se que o "R-quadrado" ajustado considera que perdemos um grau de liberdade ao incluirmos uma variável no modelo. Assim, essa variável só deve ser incluÃda quando o que ela adiciona de informação no modelo for maior do que a perda de graus de liberdade, e essa relação é refletida pela "t", em módulo, maior que 1. Nós podemos demonstrar essa relação usando um modelo com "k" variáveis e outro modelo que exclui a "k-ésima" variável "x". A demonstração dessa relação pode ser consultada no capÃtulo sete do meu livro, ou em qualquer livro de econometria básica. O último teste que discutiremos aqui neste módulo é o que chamamos de teste de Chow. O teste de Chow é bastante utilizado para testar se as regressões são diferentes para grupos diferentes. Em geral, identificamos grupos diferentes usando variáveis "dummy". Podemos, por exemplo, testar se o modelo de retorno salarial, que depende de educação, é diferente para homens e mulheres. Vimos, no módulo sobre formas funcionais, que poderÃamos testar se a regressão é diferente, tanto no intercepto quanto na inclinação, incluindo uma variável "dummy" e, também, a interação entre a variável explicativa e a variável "dummy" no modelo. No caso de uma regressão simples, fica fácil incluirmos essas duas variáveis no modelo, mas imaginem o caso em que temos um modelo com "k" variáveis e queremos testar a diferença entre dois grupos. O teste de Chow propõe uma alternativa menos custosa para esses casos. Suponha, então, que nós temos um modelo com "k" variáveis e gostarÃamos de testar se esse modelo difere para "g" grupos diferentes. PoderÃamos realizar, por exemplo, uma regressão para cada uma dessas categorias. No exemplo de homens e mulheres, fazer a regressão com "k" variáveis para mulheres e com "k" variáveis para homens. Note que estamos dividindo a nossa amostra em duas. Se o objetivo é testar entre diferentes etnias, poderÃamos ter uma regressão para cada etnia, ou seja, para cada subamostra de dados. O que Chow mostrou é que a soma dos quadrados dos resÃduos do modelo irrestrito pode ser escrita pela soma da soma dos quadrados dos resÃduos de cada regressão estimada em separado. Isso porque é equivalente estimar "g" regressões para cada grupo ou estimar conjuntamente com todas as interações e variáveis "dummy". Já a soma dos quadrados dos resÃduos do modelo restrito, seria, então, o mesmo modelo para todos os grupos, ou seja, o mesmo modelo com "k" variáveis para a amostra toda. O teste de Chow, então, é uma pequena alteração na estatÃstica "F", considerando essa estimação de várias subamostras. A estatÃstica "F" ficaria, então, igual à soma dos quadrados dos resÃduos do modelo restrito, menos, abre parênteses, a soma de todas as somas dos quadrados dos resÃduos dos modelos estimados em separado, dividido pelos graus de liberdade dessa diferença (que é igual a "k" mais 1 vezes g menos 1) dividido pela soma da soma dos quadrados dos resÃduos de todos os grupos, ponderada pelos graus de liberdade, que são iguais a "n" menos "g", abre parênteses, "k" mais 1. Tente escrever a estatÃstica "F" para dois grupos e veja que essa fórmula é equivalente. Basta, então, comparar essa estatÃstica "F" com o valor crÃtico supondo o nÃvel de tolerância. Se a estatÃstica "F" for maior do que o valor crÃtico da distribuição "F", nós rejeitamos a hipótese nula de que os efeitos são iguais. Ou seja, há diferença na regressão dos grupos. [MÚSICA] [MÚSICA] [MÚSICA]