TrabalhosGratuitos.com - Trabalhos, Monografias, Artigos, Exames, Resumos de livros, Dissertações
Pesquisar

Regressão linear

Tese: Regressão linear. Pesquise 862.000+ trabalhos acadêmicos

Por:   •  29/11/2013  •  Tese  •  905 Palavras (4 Páginas)  •  411 Visualizações

Página 1 de 4

Em estatística ou econometria, regressão linear é um método para se estimar a condicional (valor esperado) de uma variável y, dados os valores de algumas outras variáveis x.

A regressão, em geral, trata da questão de se estimar um valor condicional esperado.

A regressão linear é chamada "linear" porque se considera que a relação da resposta às variáveis é uma função linear de alguns parâmetros. Os modelos de regressão que não são uma função linear dos parâmetros se chamam modelos de regressão não-linear. Sendo uma das primeiras formas de análise regressiva a ser estudada rigorosamente, e usada extensamente em aplicações práticas. Isso acontece porque modelos que dependem de forma linear dos seus parâmetros desconhecidos, são mais fáceis de ajustar que os modelos não-lineares aos seus parâmetros, e porque as propriedades estatísticas dos estimadores resultantes são fáceis de determinar.1

Índice [esconder]

1 Equação da Regressão Linear

1.1 Cálculo dos fatores e

1.1.1 Desenvolvimento

1.1.2 Memorização

1.2 Intervalos de confiança

2 Ver também

3 Ligações Externas

4 Referências

5 Bibliografia

Equação da Regressão Linear[editar]

Para se estimar o valor esperado, usa-se de uma equação, que determina a relação entre ambas as variáveis.

Y_i = \alpha + \beta \, X_i + \epsilon_i

Em que: Y_i - Variável explicada (dependente); é o valor que se quer atingir;

\alpha - É uma constante, que representa a interceptação da reta com o eixo vertical;

\beta - É outra constante, que representa o declive(coeficiente angular)da reta;

X_i - Variável explicativa (independente), representa o factor explicativo na equação;

\epsilon_i - Variável que inclui todos os factores residuais mais os possíveis erros de medição. O seu comportamento é aleatório, devido à natureza dos factores que encerra. Para que essa fórmula possa ser aplicada, os erros devem satisfazer determinadas hipóteses, que são: serem variáveis normais, com a mesma variância \sigma^2\, (desconhecida), independentes e independentes da variável explicativa X.

Cálculo dos fatores \alpha e \beta[editar]

\hat{\alpha}=\frac{\sum \,X^2 \sum Y -\sum \,(X Y) \, \sum X}{n \, \sum_\,X^2-(\sum X)^2}

\hat{\beta}=\frac{n \sum \,(X Y)-\sum X \, \sum Y}{n \, \sum_\,X^2-(\sum X)^2}

Definindo \overline{X} = \frac {\sum X} {n} e \overline{Y} = \frac {\sum Y} {n}, temos que \hat{\alpha} e \hat{\beta} se relacionam por:

\hat{\alpha}=\overline{Y}-\hat{\beta} \, \overline{X}

Desenvolvimento[editar]

Estas fórmulas podem ser desenvolvidas a partir da definição de mínimos quadrados

O objectivo é determinar \alpha e \beta de forma que a soma dos quadrados dos erros seja mínima, ou seja, devemos minimizar

\sum (Y_i \, - \, \beta \, X_i \, - \, \alpha)^2

Desenvolvendo este quadrado e eliminando os termos constantes (ou seja, aqueles que não têm termos em \alpha e \beta, chega-se a:

\beta^2 \, \sum X^2 \, + \, n \, \alpha^2 \, - \, 2 \, \beta \sum (X Y) \, - \, 2 \, \alpha \, \sum Y \, + \, 2 \, \alpha \, \beta \, \sum X

A partir desse ponto, pode-se resolver usando-se cálculo (tomando as derivadas parciais, etc), ou através de uma transformação de coordenadas:

\alpha \, = \, \alpha_1 \, - \, \frac { \sum X } { n } \, \beta

ou

\alpha \, = \, \alpha_1 \, - \, \beta \, \overline{X}

Transformando a expressão a ser minimizada em:

\beta^2 \, \sum X^2 \, + \, n \, \alpha_1^2 \, - \, 2 \, \alpha_1 \, \beta \, \sum X + \frac { (\sum X)^2 } { n } \, \beta^2 - \, 2 \, \beta \sum (X Y) \, - \, 2 \, \alpha_1 \, \sum Y \, + \, 2 \, \overline{X} \, \sum Y \, \beta \, + \, 2 \, \alpha_1 \, \beta \, \sum X

...

Baixar como (para membros premium)  txt (5.7 Kb)  
Continuar por mais 3 páginas »
Disponível apenas no TrabalhosGratuitos.com