TrabalhosGratuitos.com - Trabalhos, Monografias, Artigos, Exames, Resumos de livros, Dissertações
Pesquisar

REGRESSÃO LINEAR SIMPLES

Artigo: REGRESSÃO LINEAR SIMPLES. Pesquise 862.000+ trabalhos acadêmicos

Por:   •  6/9/2013  •  1.862 Palavras (8 Páginas)  •  741 Visualizações

Página 1 de 8

1 REGRESSÃO LINEAR SIMPLES

Em estatística, regressão linear simples (equação da reta ou do plano) é um método para se estimar o valor esperado de uma variável y, dados os valores de algumas outras variáveis x, trata-se de um valor condicional esperado. Possui esse nome devido as respostas lineares dos parâmetros e tem como objetivo a previsão de resultados. A sua forma mais simples é realizada entre duas variáveis representada por uma linha reta.

Suas variáveis podem ser quantitativas (ou qualitativas) de tal forma que uma variável pode ser analisada a partir da outra.

Para tentar estabelecer uma equação pode-se fazer um gráfico, diagrama de dispersão, para verificar como se comportam os valores da variável dependente (Y) em função da variação da variável independente (X).

Contudo, pode-se verificar que os pontos do diagrama de dispersão, não vão se ajustar perfeitamente à curva. Haverá na maior parte dos pontos, uma distância. Isto acontece, devido ao fato do fenômeno está sujeito a influências que acontecem.

1.1 Diagrama de Dispersão

Para a análise de regressão linear simples, é necessária a construção de um gráfico (plano cartesiano), sendo que nele cada valor é marcado pelas coordenadas de Xe Y, definindo os eixos dos pontos existentes.

As variáveis serão diretas (ou positivas) quando os valores referentes a Y aumentarem em relação aos valores de X. E serão inversas (ou negativas) quando os valores de Y variarem inversamente em relação aos valores de X.

1.2 Modelos de Regressão Linear Simples

A natureza da relação pode tomar várias formas, desde uma simples relação linear até uma complicada função matemática. O modelo de regressão pode ser assim representado:

- intercepto da reta;

- inclinação da reta;

- Variável explicativa (independente);

- erro aleatório de Y para a observação i

A inclinação representa a mudança esperada de Y por unidade de X, ou seja, representa a mudança de Y (sendo negativa ou positiva) para uma particular unidade de X. Por outro lado, representa o valor de Y quando X=0, enquanto representa uma variável aleatória que descreve o erro de Y para cada observação i.

1.3 Determinação da equação de regressão linear simples

Com base em uma amostra, a equação de regressão linear simples que mais se enquadra aos dados amostrais, ou seja, encontrar os coeficientes da reta

Ŷᵢ=a+bXᵢ

Ŷᵢ = valor da previsão de Y para uma observação Xᵢ

Xᵢ = valor de X para a observação i

a = estimador de

b = estimador de .

O problema é determinar s valores dos parâmetros a e b, de modo que a reta se ajuste ao conjunto de pontos, isto é: estimar a e b de algum modo eficiente. Há vários métodos para encontrar as estimativas de tais parâmetros, sendo eficaz o Método dos Mínimos Quadrados.

Método dos Mínimos Quadrados (MMQ)

É a obtenção de uma equação estimada de forma que a distância entre os pontos do diagrama e da curva do modelo matemático sejam as menores possíveis, obtendo-se, uma relação funcional entre X e Y.

Como a reta desejada vai ser usada para fins de previsão, é razoável exigir que ela seja tal que torne pequenos os erros dessa previsão, que é significa a diferença entre um valor observado de Y e o valor correspondente de "Ŷ" da reta.

Yi

" (Y - Ŷ ) Y " Y ̂" = a + bX "

X Xi

Os pontos acima da reta dão erros positivos, os situados abaixo da reta dão erros negativos. Como a soma dos erros é zero, isto é: ∑_(i=1)^n▒〖(Yi-Yi^)=0〗, o método utiliza a soma dos quadrados dos erros, daí o nome Mínimos Quadrados. Assim: ∑_(i=1)^n▒(Yi-Yii)² deverá ser minimizada.

Como Yi^= a+bXi , vamos minimizar:

∑_(i=1)^n▒〖[Yi-(a+bXi)]²〗

para obter os parâmetros a e b.

Aplicando o referido método, se obtêm duas equações, denominadas equações normais:

{█(I-∑_(i=1)^n▒〖Y_i=na+b〗 ∑_(i=1)^n▒X_i @a@II-∑_(i=1)^n▒〖〖X_i Y〗_i=a〗 ∑_(i=1)^n▒X_i +b∑_(i=1)^n▒X_i^2 )}

Resolvendo o sistema para a e b, temos:

b=S_XY/S_XX e a= ӯ+bẋ

Onde:

∑_(i=1)^n▒〖Xi=x〗 e ∑_(i=1)^n▒〖Yi=y〗

S_XY=∑▒〖xy-(∑▒〖x∑▒y〗)/n〗 S_XX=∑▒〖x^2-〖(∑▒〖x)〗〗^2/n〗

"ẋ"=(∑▒x)/n "ӯ"=(∑▒y)/n

Estimador da Variância

Após uma reta de regressão ter sido ajustada a um conjunto de pontos, é possível inspecionar seu gráfico, no diagrama de dispersão e observar o grau de precisão do ajuste. Um processo aritmético para se verificar a qualidade do ajuste é o cálculo e análise dos desvios: (yi – ŷi). Uma medida útil do grau de variabilidade dos valores em torno da reta é dado pela variância:

S^2=(∑_(i=1)^n▒〖(y_i-ŷ_i)〗^2 )/(n-2)

S^2, definido acima, é um estimador não tendencioso de σ^(2 ).

A raiz quadrada se S^2 é o desvio padrão,ou erro padrão da estimativa. Assim.

S=√((∑_(i=1)^n▒〖(y_i-ŷ_i)〗^2 )/(n-2))

A soma dos quadrados dos desvios ∑_(i=1)^n▒〖(y_i-ŷ_i)〗^2 denomina-se variação residual:

VR=

...

Baixar como (para membros premium)  txt (11.2 Kb)  
Continuar por mais 7 páginas »
Disponível apenas no TrabalhosGratuitos.com