[MÚSICA] [MÚSICA] Nesta aula, nós vamos discutir alguns testes adicionais aos testes individuais que vimos nas aulas anteriores. O primeiro teste que veremos é o teste de combinação linear de parâmetros. Se tivéssemos uma função de produção Cobb-Douglas, por exemplo, poderÃamos testar se a intensidade do uso de capital é igual à intensidade do uso de trabalho, ou seja, "Beta 1" igual a "Beta 2", contra a hipótese de que "Beta 1" seja diferente de "Beta 2". Nesse caso, a estatÃstica "t" seria a igual a "Beta chapéu 1" menos "Beta chapéu 2" menos 0, dividido pelo erro padrão de "Beta chapéu 1" menos "Beta chapéu 2". Veja que o erro-padrão de "Beta chapéu 1" menos "Beta chapéu 2" vai ser igual à raiz da variância da soma desses estimadores menos duas vezes a covariância entre eles. Normalmente, por praticidade, poderÃamos transformar o nosso modelo de forma a não precisarmos calcular a covariância entre os estimadores. Supondo "Teta" igual ao "Beta 1" menos o "Beta 2", que é a relação que desejamos testar, podemos substituir essa relação dentro do modelo e chegar na seguinte transformação. "y" será igual a "Beta 0", mais "Teta" "x1" mais, abre parênteses, "Beta 1" mais "Beta 2", "x1" mais "x2", mais "Beta 3" "x3" mais "u". Note que, se fizermos a regressão de "y" contra "x1", "x1" mais "x2" e "x3", o "Teta" será exatamente o parâmetro de "x1". Assim, podemos reescrever a nossa estatÃstica "t" usando o "Teta chapéu" (que será o valor estimado para o "Teta" usando, por exemplo, o método de mÃnimos quadrados ordinários) e usando o erro-padrão de "Teta chapéu" (que seria o erro-padrão do estimador usando o modelo transformado). Até agora, discutimos testes de apenas uma hipótese, seja sobre um "Beta" qualquer, seja sobre a combinação de "Betas". Vamos, agora, falar sobre testes de múltiplas hipóteses. Vejamos o exemplo de um modelo que tenta explicar o desempenho escolar das crianças usando várias variáveis, como variáveis da própria criança (variáveis como "background" familiar ou caracterÃsticas da criança); variáveis da escola (insumos escolares, por exemplo); e variáveis das caracterÃsticas dos professores. PoderÃamos nos interessar em testar se apenas os insumos escolares influenciam no desempenho da escola. Mas os insumos escolares podem ser medidos por várias variáveis, como: o tamanho da turma, presença de biblioteca na escola, de internet, entre outras. Se tivéssemos, por exemplo, "q" variáveis que meçam os insumos escolares da escola, poderÃamos testar, conjuntamente, se todas essas variáveis têm efeitos 0, ou seja, "Beta 1" igual a 0, "Beta 2" igual a 0, até "Beta q" igual a 0, supondo que as "q" variáveis do modelo reflitam os insumos escolares. A hipótese alternativa, nesse caso, considera qualquer uma dessas variáveis que estamos testando serem diferentes de 0, ou seja, a hipótese alternativa, nesse caso, seria de que apenas um insumo escolar influencia no desempenho escolar, ou todos os insumos influenciam no desempenho escolar. As hipóteses contidas na hipótese nula desse modelo são também chamadas de restrição de exclusão, pois, se a hipótese nula é válida, significa que podemos excluir todas essa variáveis do nosso modelo. Nesse caso, nós não podemos fazer "q" testes individuais para testar essas hipóteses, pois elas devem ser consideradas conjuntamente. Uma alternativa é realizarmos o que chamamos de "teste F". Para fazermos o teste "F", basta compararmos a soma dos quadrados dos resÃduos do modelo irrestrito, que é o modelo completo, com o modelo restrito, que é o modelo sob "H0", ou seja, excluindo as "q" primeiras variáveis. Então, o teste "F" parte da comparação entre essas duas somas dos quadrados dos resÃduos. PoderÃamos, por exemplo, simplesmente comparar a soma dos quadrados dos resÃduos sob "H0", que é maior do que a soma dos quadrados dos resÃduos irrestritos. Isso porque ao excluirmos variáveis do nosso modelo, a soma dos nossos quadrados dos resÃduos aumenta. Uma possÃvel medida de comparação seria a diferença entre a soma dos quadrados dos resÃduos do modelo restrito e irrestrito, sobre a soma dos quadrados dos resÃduos do modelo irrestrito. Essa medida nos daria o aumento percentual na soma dos quadrados dos resÃduos dada pela exclusão das variáveis. No entanto, precisamos ponderar essa medida pelos graus de liberdade de cada dos termos, e é exatamente isso que a estatÃstica "F" faz, ou seja, a diferença de graus de liberdade da diferença da soma dos quadrados dos resÃduos dos modelos é exatamente o número de restrições, que nesse caso é "q", e o número de graus de liberdade da soma dos quadrados dos resÃduos do modelo irrestrito é "n" menos "k" menos 1. O que conseguimos demonstrar é que essa estatÃstica "F" (se valem as hipóteses do modelo clássico de regressão linear) converge para uma distribuição "F" de Fisher. Com "q" vÃrgula "n" menos "k" menos 1 graus de liberdade. Assim, basta compararmos essa estatÃstica com o valor crÃtico da distribuição "F". Se o valor da estatÃstica "F" for maior do que o valor crÃtico da regressão, isso significa que rejeitamos a hipótese de que aqueles efeitos sejam conjuntamente 0. Em outras palavras, no exemplo do efeito dos insumos escolares sobre o desempenho das crianças, nós dirÃamos que os insumos escolares são, conjuntamente, significantes para explicar o desempenho dos alunos. Lembrando que, para calcularmos o valor crÃtico da "F", além dos graus de liberdade, nós precisamos, também, de um "Alfa", que é o nÃvel de significância, ou nÃvel de tolerância de erro. Se rejeitamos "H0" a um "Alfa" de 5%, dizemos que as variáveis são, conjuntamente, significantes a 5%. Uma forma mais geral do teste "F" é o teste de significância geral da regressão, ou seja, quando a hipótese nula é de que todos os "Betas" são iguais a 0, "Beta 1" é igual 0, "Beta 2" é igual a 0, até o "Beta k" é igual a 0. Se "H0" é verdadeira, nós dizemos que a regressão não tem significância. Já a hipótese alternativa diz que ao menos um dos Betas é diferente de 0. Podemos escrever a nossa estatÃstica "F" em função do "R-quadrado" do modelo, também; basta considerarmos que o "R-quadrado" é igual a 1 menos a soma dos quadrados dos resÃduos sobre a soma dos quadrados totais, para chegarmos à seguinte expressão. A estatÃstica "F" será, então, igual ao "R-quadrado" do modelo irrestrito menos o "R-quadrado" do modelo restrito, dividido por "q", tudo isso sobre 1 menos "R-quadrado" do modelo irrestrito, dividido por "n" menos "k" menos 1. No caso da significância geral da regressão, o nosso modelo restrito considera que há apenas 1 intercepto no modelo, ou seja, o "R-quadrado" será igual a 0. Assim, a estatÃstica "F" fica igual a essa expressão. Podemos comparar essa estatÃstica ao valor crÃtico de uma distribuição "F" com "k" vÃrgula "n" menos "k" menos 1 graus de liberdade. [MÚSICA] [MÚSICA] [MÚSICA]