O Resumo de Microeconomia
Por: Ana Laura Costa • 28/5/2019 • Trabalho acadêmico • 2.067 Palavras (9 Páginas) • 227 Visualizações
Posto cheio: Não há relação linear perfeita entre as variáveis independentes. Posto (x)=k, ode k é o número de parâmetros. Posto cheio indica ausência de multicolinearidade perfeita entre as variáveis explicativas, esse pressuposto garante que a matriz (x’x) é uma matriz não singular e, portanto, assegura a existência de (x’x)-¹. Caso posto (x)
Linearidade: y=xβ+ε Quando o modelo é não linear, não se pode obter uma solução simples (única). Modelos não lineares nos parâmetros devem ser estimados por métodos não lineares.
Exogeneidade das variáveis independentes: E(ε/x)=0 Em média, a influência do termo de erro para explicar y é nula. Não pode haver omissão de variáveis relevantes. Estimação crível=eficiente e não viesada.
Se for ǂ0 o estimador não é consistente e fica viesado. Continua eficiente.
Homocedasticidade: Var (εi)=δ². Os erros εi são variáveis aleatórias com variância constante. Se houver homocedasticidade, os estimadores perdem eficiência.
Não-autocorrelação: cov (εi/εj)=0
Distribuição normal: Os erros tem distribuição normal.
Ε=/x ~ N (0, δ²/)
Regressão de mínimos quadrados
β e ε >> populacional. B e e >> amostral.
Como chegar ao estimador de MQO:
O vetor de coeficientes de mínimos quadrados minimiza a soma dos resíduos quadrados:
y=xb+e >> (y- xb)²= e² >> ∑ e²=∑(y- xb)²
Resolve e deriva em função de b, o que da a equação normal:
b=(x’x)-¹x’y
>> x’xb=x’y >> x’(xb-y)=0 >> -x’(y-xb)=0 >> -x’e=o >> covariância entre o erro amostral e a variável explicativa. Os resíduos de mínimos quadrados somam zero.
Teorema da regressão particionada:
Na regressão múltipla de MQO de y em x1 e x2, se x1 e x2 forem ortogonais, então os vetores de coeficientes (b1 e b2) separados podem ser obtidos por regress~es separadas de y em x1 sozinho e y em x2 sozinho.
Prova:
Fazer a mesma coisa que o exercício anterior. Pegar a regressão, fazer o somatório dos quadrados, fazer a distributiva e achar as equações normais, que são: x1y=x1’x1b1+x1’x2b2
X2y=x2’x2b2+x2’x1b1
Se o conjuntos de variáveis explicativas forem ortogonais, então: b1=(x1’x1)-¹x1’y e b2=(x2’x2)-¹x2’y
Teorema Frisch-Waugh-Lovell
Se o conjunto de variáveis não forem ortogonais, então a solução é mais complexa.
Na regressão de y em x1 e x2, b2 é o subvetor de coeficientes quando os resíduos da regressão y em x1 (sozinhos) é regredido nos resíduos obtidos quando cada coluna de x2 é regredida em x1
Prova: Começando pelas equações normais
X2y=x2’x2b2+x2’x1b1
Inserir o b1 (obtido no teorema de regressão particionada, considerando que as variáveis não são ortogonais (x2’x1=0 e x1’x2=0)) na equação normal em função de x2:
B1=(x1’x1)-¹x1’(y-x2b2)
Vai achar b2
B2=(x2’m1x2)-¹(x2’m1y)
Como m1 é simétrico e idempotente:
B2=(x2*’x2*)-¹(x2*’y*)
Teorema Regressão Ortogonal:
Se a regressão múltipla de y em x contiver um termo constante e as variáveis da regressão não estiverem correlacionadas, então os estimadores da regressão múltipla serão os mesmos que os estimadores da regressão simples individuais de y em um constante e em cada variável, por sua vez.
Teorema: Mudança na soma dos quadrados quando uma variável é adicionada na regressão
Se e’e é a soma dos quadrads de resíduos quando y é regredido em x e u’u é a soma dos resíduos quadrados quando y é regredido em e z, então:
U’u= e’e- c²(z*’z*) <= e’e; onde c é o coeficiente de z na regressão de y em x e z e z*=MZ é o vetor de resíduos quando z é regredido em x.
Prova:
Y= xd+zc+u >> u=y-xd-zc
A menos que x’z=0, d não será igual a b=(x’x)-¹x’y. Além disso, a menos que c=0, u não será igual a e=y-xd. Do corolário de coeficientes de regressão individual, c=(z*’z*)-¹(z*y*), das equações normais também temos que:
D=(x’x)-¹x’(y-zc)=b-(x’x)-¹x’zc
Inserindo d em u, da:
U=y-xb+x(x’x)-¹x’zc-zc >> =e-mzc=e-z*c
Fazendo a soma do quadrados dos resíduos, isso da o resultado:
U’u=e’e-c²(z*’z*)
Teorema das variáveis transformadas
Na regressão linear de y em z=xp, onde p é uma matriz não singular que transforma a coluna de x, o coeficiente será igual a p-¹b =, onde b é o coeficiente da regressão de y em x, e o r² será o mesmo.
Prova:
D=(z’z)-¹z’y = ((xp)’xp)-¹(xp)’y = (p’x’xp)-¹p’x’y = p-¹(x’x)-¹p’-¹p’x’y = p-¹(x’x)-¹x’y = p-¹b
O vetor de resíduos é u=y-z(p-¹b) >> u=y-xpp-¹b >> u=y-xb=e
Desde que os resíduos são idênticos, o numerados de 1-r² é o mesmo, e o denominador é inalterado. Isso estabelece o resultado.
Teorema: Erro quadrado médio mínimo
Se o mecanismo gerador de dados gerando (xiyi)i=1,..., n é tal que a lei dos grandes números se aplica aos estimadores em 1/n ∑xiyi = (1/n ∑xixi’)b das matrizes em ExEy(x,y)=Ex(xx’)β, então o estimador linear do erro quadrado médio mínimo de yi é estimado pela linha de regressão de mínimos quadrados
Prova: Erro quadrado médio mínimo
ExEε(x/ε)=ExEy(x/(y-xβ))=ExEy(x,y)=Ex(xx’)β
Aplicando o somatório e dividindo por n:
1/n ∑xiyi = (1/n ∑xixi’)b
A expectativa do erro quadrado desse preditor é:
MSE=ExEy(y-x’ϒ)²
MSE= Ey,x(y-E(y/x))²+Ey,x(E(y/x)-x’ϒ)²
Otimizando com relação a ϒ:
EyEx(xE(y/x))=EyEx(xx’) ϒ
Portanto, a condição necessária para encontrar o preditor de mínimos de MSE é:
ExEy(xy)=Ex(xx’) ϒ
Estimador não viesado
Provando que o estimador de MQO é não viessado se os pressuposto básicos são satisfeitos.
...