REGRESSÃO LINEAR SIMPLES
Artigo: REGRESSÃO LINEAR SIMPLES. Pesquise 862.000+ trabalhos acadêmicosPor: robinh1 • 6/9/2013 • 1.862 Palavras (8 Páginas) • 741 Visualizações
1 REGRESSÃO LINEAR SIMPLES
Em estatística, regressão linear simples (equação da reta ou do plano) é um método para se estimar o valor esperado de uma variável y, dados os valores de algumas outras variáveis x, trata-se de um valor condicional esperado. Possui esse nome devido as respostas lineares dos parâmetros e tem como objetivo a previsão de resultados. A sua forma mais simples é realizada entre duas variáveis representada por uma linha reta.
Suas variáveis podem ser quantitativas (ou qualitativas) de tal forma que uma variável pode ser analisada a partir da outra.
Para tentar estabelecer uma equação pode-se fazer um gráfico, diagrama de dispersão, para verificar como se comportam os valores da variável dependente (Y) em função da variação da variável independente (X).
Contudo, pode-se verificar que os pontos do diagrama de dispersão, não vão se ajustar perfeitamente à curva. Haverá na maior parte dos pontos, uma distância. Isto acontece, devido ao fato do fenômeno está sujeito a influências que acontecem.
1.1 Diagrama de Dispersão
Para a análise de regressão linear simples, é necessária a construção de um gráfico (plano cartesiano), sendo que nele cada valor é marcado pelas coordenadas de Xe Y, definindo os eixos dos pontos existentes.
As variáveis serão diretas (ou positivas) quando os valores referentes a Y aumentarem em relação aos valores de X. E serão inversas (ou negativas) quando os valores de Y variarem inversamente em relação aos valores de X.
1.2 Modelos de Regressão Linear Simples
A natureza da relação pode tomar várias formas, desde uma simples relação linear até uma complicada função matemática. O modelo de regressão pode ser assim representado:
- intercepto da reta;
- inclinação da reta;
- Variável explicativa (independente);
- erro aleatório de Y para a observação i
A inclinação representa a mudança esperada de Y por unidade de X, ou seja, representa a mudança de Y (sendo negativa ou positiva) para uma particular unidade de X. Por outro lado, representa o valor de Y quando X=0, enquanto representa uma variável aleatória que descreve o erro de Y para cada observação i.
1.3 Determinação da equação de regressão linear simples
Com base em uma amostra, a equação de regressão linear simples que mais se enquadra aos dados amostrais, ou seja, encontrar os coeficientes da reta
Ŷᵢ=a+bXᵢ
Ŷᵢ = valor da previsão de Y para uma observação Xᵢ
Xᵢ = valor de X para a observação i
a = estimador de
b = estimador de .
O problema é determinar s valores dos parâmetros a e b, de modo que a reta se ajuste ao conjunto de pontos, isto é: estimar a e b de algum modo eficiente. Há vários métodos para encontrar as estimativas de tais parâmetros, sendo eficaz o Método dos Mínimos Quadrados.
Método dos Mínimos Quadrados (MMQ)
É a obtenção de uma equação estimada de forma que a distância entre os pontos do diagrama e da curva do modelo matemático sejam as menores possíveis, obtendo-se, uma relação funcional entre X e Y.
Como a reta desejada vai ser usada para fins de previsão, é razoável exigir que ela seja tal que torne pequenos os erros dessa previsão, que é significa a diferença entre um valor observado de Y e o valor correspondente de "Ŷ" da reta.
Yi
" (Y - Ŷ ) Y " Y ̂" = a + bX "
X Xi
Os pontos acima da reta dão erros positivos, os situados abaixo da reta dão erros negativos. Como a soma dos erros é zero, isto é: ∑_(i=1)^n▒〖(Yi-Yi^)=0〗, o método utiliza a soma dos quadrados dos erros, daí o nome Mínimos Quadrados. Assim: ∑_(i=1)^n▒(Yi-Yii)² deverá ser minimizada.
Como Yi^= a+bXi , vamos minimizar:
∑_(i=1)^n▒〖[Yi-(a+bXi)]²〗
para obter os parâmetros a e b.
Aplicando o referido método, se obtêm duas equações, denominadas equações normais:
{█(I-∑_(i=1)^n▒〖Y_i=na+b〗 ∑_(i=1)^n▒X_i @a@II-∑_(i=1)^n▒〖〖X_i Y〗_i=a〗 ∑_(i=1)^n▒X_i +b∑_(i=1)^n▒X_i^2 )}
Resolvendo o sistema para a e b, temos:
b=S_XY/S_XX e a= ӯ+bẋ
Onde:
∑_(i=1)^n▒〖Xi=x〗 e ∑_(i=1)^n▒〖Yi=y〗
S_XY=∑▒〖xy-(∑▒〖x∑▒y〗)/n〗 S_XX=∑▒〖x^2-〖(∑▒〖x)〗〗^2/n〗
"ẋ"=(∑▒x)/n "ӯ"=(∑▒y)/n
Estimador da Variância
Após uma reta de regressão ter sido ajustada a um conjunto de pontos, é possível inspecionar seu gráfico, no diagrama de dispersão e observar o grau de precisão do ajuste. Um processo aritmético para se verificar a qualidade do ajuste é o cálculo e análise dos desvios: (yi – ŷi). Uma medida útil do grau de variabilidade dos valores em torno da reta é dado pela variância:
S^2=(∑_(i=1)^n▒〖(y_i-ŷ_i)〗^2 )/(n-2)
S^2, definido acima, é um estimador não tendencioso de σ^(2 ).
A raiz quadrada se S^2 é o desvio padrão,ou erro padrão da estimativa. Assim.
S=√((∑_(i=1)^n▒〖(y_i-ŷ_i)〗^2 )/(n-2))
A soma dos quadrados dos desvios ∑_(i=1)^n▒〖(y_i-ŷ_i)〗^2 denomina-se variação residual:
VR=
...