TrabalhosGratuitos.com - Trabalhos, Monografias, Artigos, Exames, Resumos de livros, Dissertações
Pesquisar

Introdução ATPS Calculo Numerico

Ensaios: Introdução ATPS Calculo Numerico. Pesquise 861.000+ trabalhos acadêmicos

Por:   •  28/3/2015  •  9.550 Palavras (39 Páginas)  •  274 Visualizações

Página 1 de 39

Cap´ıtulo 1

Conceitos B´asicos

1.1 Introdu¸c˜ao

Pretendemos neste cap´ıtulo relembrar alguns conceitos b´asicos, que ir˜ao facilitar a compreens˜ao dos

m´etodos num´ericos apresentados nos pr´oximos cap´ıtulos. A maioria dos conceitos aqui apresentados s˜ao

de ´algebra linear e isso se deve ao fato de que os resultados da ´algebra linear, em geral, e da teoria

dos espa¸cos vetoriais, em particular, na an´alise num´erica ´e t˜ao grande, que estudo pormenorizado desses

assuntos cada vez mais se justifica. Assim maiores detalhes sobre os assuntos aqui abordados podem ser

encontrados em livros de ´algebra linear.

Para iniciar vamos examinar dois conjuntos que certamente j´a s˜ao conhecidos do leitor. O primeiro ´e

o conjunto dos vetores da geometria, definidos atrav´es de segmentos orientados, e o outro ´e o conjunto

das matrizes reais m × n.

A primeira vista pode parecer que tais conjuntos n˜ao possuem nada em ` comum. Mas n˜ao ´e bem assim

conforme mostraremos a seguir.

No conjunto dos vetores est´a definida uma adi¸c˜ao dotada das propriedades comutativa, associativa,

al´em da existˆencia do elemento neutro (vetor nulo) e do oposto.

Al´em disso, podemos multiplicar um vetor por um n´umero real. Essa multiplica¸c˜ao tem as seguintes

propriedades (j´a certamente vista por vocˆe no seu curso):

α(u + v) = αu + αv ,

(α + β)u = αu + βu ,

(αβ)u = (αβu) ,

1 · u = u ,

onde u, v s˜ao vetores e α, β s˜ao escalares quaisquer.

No conjunto das matrizes tamb´em est´a definida uma adi¸c˜ao dotada tamb´em das propriedades associativa,

comutativa, admite elemento neutro, a matriz nula, e toda matriz tem uma oposta.

Como vemos o comportamento do conjunto dos vetores e o das matrizes quanto `a adi¸c˜ao ´e o mesmo.

Mas n˜ao param por a´ı as coincidˆencias.

Pode-se tamb´em multiplicar uma matriz por um n´umero real. Essa multiplica¸c˜ao apresenta as mesmas

propriedades que as destacadas para o caso de vetor, ou seja, valem as seguintes igualdades:

α(A + B) = αA + αB ,

(α + β)A = αA + βA ,

(αβ)A = (αβA) ,

1 · A = A ,

1

CAP´ITULO 1. CONCEITOS BASICOS ´ 2

onde A, B s˜ao matrizes e α, β s˜ao escalares quaisquer.

Logo o conjunto dos vetores e o das matrizes apresentam uma certa coincidˆencia estrutural no que

se refere a um par importante de opera¸c˜oes definidas sobre eles. Nada ent˜ao mais l´ogico que estudar

simultaneamente o conjunto dos vetores, das matrizes e todos os conjuntos que apresentem a mesma

estrutura acima apontada.

1.2 Espa¸co Vetorial

Seja E um conjunto e seja K um corpo. Suponhamos que em E esteja definida uma opera¸c˜ao de

adi¸c˜ao:

(x,y) ∈ E × E → x + y ∈ E ,

e que esteja definida uma opera¸c˜ao entre os elementos de K e os elementos de E (chamada multiplica¸c˜ao

por escalar):

(α, x) ∈ K × E → αx ∈ E .

Ent˜ao E ´e um K-espa¸co vetorial, em rela¸c˜ao a essas opera¸c˜oes, se as seguintes condi¸c˜oes estiverem

satisfeitas:

A1) (x + y) + z = x + (y + z), ∀x, y,z ∈ E ,

A2) x + y = y + x, ∀x, y ∈ E ,

A3) ∃ 0(zero) ∈ E / x + 0 = x, ∀x ∈ E ,

A4) ∀x ∈ E, ∃ − x ∈ E / x + (−x) = 0 ,

M1) α(x + y) = αx + αy, ∀α ∈ K, ∀x,y ∈ E ,

M2) (α + β)x = αx + βx, ∀α, β ∈ K, ∀x, y ∈ E ,

M3) (αβ)x = (αβx), ∀ α, β ∈ K, ∀x ∈ E ,

M4) 1 · x = x, ∀ x ∈ E .

O leitor dever´a lembrar-se sempre de que, na defini¸c˜ao acima, n˜ao se especifica nem a natureza dos

vetores nem das opera¸c˜oes. Assim qualquer conjunto que satisfa¸ca as oito condi¸c˜oes acima especificada

ser´a um espa¸co vetorial.

Defini¸c˜ao 1.1 - Seja E um K-espa¸co vetorial. Os vetores v1,v2,. .. ,vk ∈ E s˜ao linearmente dependentes

sobre K, se existem escalares α1,α2,. .. ,αk ∈ K, nem todos nulos, tais que:

α1 v1 + α2 v2 + .. . + αk vk = 0 .

Observamos que essa rela¸c˜ao ´e sempre v´alida se os αi

, i = 1, 2,. .. ,k s˜ao todos iguais a zero. Nesse

caso dizemos que os vetores s˜ao linearmente independentes.

Defini¸c˜ao 1.2 - Um K-espa¸co vetorial tem dimens˜ao n se:

a) existem n vetores linearmente independentes;

b) (n + 1) vetores s˜ao sempre linearmente dependentes.

Defini¸c˜ao 1.3 - Qualquer conjunto de n vetores linearmente independentes ´e chamado base de um

K-espa¸co vetorial de dimens˜ao n.

Assim, qualquer vetor do espa¸co pode ser representado como combina¸c˜ao linear dos vetores da base.

Mudan¸ca de Base

CAP´ITULO 1. CONCEITOS BASICOS ´ 3

Estudaremos inicialmente mudan¸ca de base em um espa¸co vetorial bi-dimensional, e a seguir, em um

espa¸co de dimens˜ao n.

a) Seja E = IR2

. Sejam B1 = {e1,e2} uma base de E e v ∈ E, como mostrados na Figura 1.1.

a22

v2

a21

v

2

e2

v

v

1

e

1

a12 e1 v1 a11

e

2

✲ ✲

Figura 1.1

Ent˜ao v se exprime de maneira ´unica como combina¸c˜ao linear dos elementos de B1, isto ´e, existem

escalares v1,v2 (elementos de K) tais que:

v = v1 e1 + v2 e2 , (1.1)

(onde os escalares v1,v2 s˜ao as coordenadas de v na base B1).

Seja B′

1 = {e

1

,e′

2}, como mostrado na Figura 1.1, uma outra base de E. Analogamente, podemos

escrever:

v = v

1

e

1 + v

2

e

2

. (1.2)

Desejamos saber como, dadas as coordenadas de v na base B1 (aqui denominada base antiga),

poderemos determinar as coordenadas de v na base B′

1

(aqui denominada base nova). Sendo e

1

,e′

2

elementos de E podemos, em particular, escrever cada um deles como combina¸c˜ao linear dos elementos

da base B1. Assim:

e

1 = a11 e1 + a21 e2 ,

e

2 = a12 e1 + a22 e2 .

(1.3)

isto ´e, cada vetor da base nova se exprime de maneira ´unica como combina¸c˜ao linear dos vetores da base

antiga.

Assim, em virtude de (1.1), (1.2) e (1.3) temos:

v = v1 e1 + v2 e2 = v

1

e

1 + v

2

e

2

= v

1

(a11 e1 + a21 e2) + v

2

(a12 e1 + a22 e2)

= (v

1 a11 + v

2 a12) e1 + (v

1 a21 + v

2 a22) e2 .

Como as coordenadas de um vetor em rela¸c˜ao a uma determinada base s˜ao ´unicas, podemos igualar

os coeficientes. Assim, obtemos o sistema linear:



v1 = v

1 a11 + v

2 a12

v2 = v

1 a21 + v

2 a22

CAP´ITULO 1. CONCEITOS BASICOS ´ 4

ou na forma matricial:



v1

v2



=



a11 a12

a21 a22   v

1

v

2



, (1.4)

ou ainda:

v = A v′

. (1.5)

O sistema (1.4), possui sempre uma e uma s´o solu¸c˜ao v

1

,v′

2

, pelo fato de B1 e B′

1

serem bases de E.

Ent˜ao, conhecidas, na base antiga, as coordenadas v1,v2 de v e as coordenadas de cada um dos vetores

e

1

,e′

2

, na base antiga, podemos determinar as coordenadas v

1

,v′

2 de v na base nova usando (1.4).

Sendo A n˜ao singular, (det(A) 6= 0), existe a inversa A−1 de A. Assim, pr´e-multiplicando (1.5) por

A−1

, obtemos:

v

′ = A

−1

v . (1.6)

A equa¸c˜ao matricial (1.6) mostra como calcular as coordenadas de v na base antiga quando conhecidas

as coordenadas de v na base nova.

Exemplo 1.1 - Seja v = (2, 4)t na base {(1, 2)t

,(2, 3)t}. Calcular as coordenadas de v na base {(1, 3)t

,(1, 4)t}.

Solu¸c˜ao: De (1.3), temos:

(1, 3)t = a11 (1, 2)t + a21 (2, 3)t

,

(1, 4)t = a12 (1, 2)t + a22 (2, 3)t

.

Da primeira equa¸c˜ao, obtemos o sistema:



a11 + 2 a21 = 1

2 a11 + 3 a21 = 3

cuja solu¸c˜ao ´e: a11 = 3, a21 = −1. De maneira an´aloga, da segunda equa¸c˜ao, obtemos:



a12 + 2 a22 = 1

2 a12 + 3 a22 = 4

cuja solu¸c˜ao ´e: a12 = 5, a22 = −2. Substituindo os valores conhecidos em (1.4), segue que:



2

4



=



3 5

−1 −2

  v

1

v

2



.

cuja solu¸c˜ao ´e: v

1 = 24, v′

2 = −14. Assim, v = (24, −14)t na base {(1, 3)t

,(1, 4)t}.

Veremos agora, mudan¸ca de base em um K-espa¸co vetorial E de dimens˜ao n.

b) Seja E = IRn. Sejam {e1,e2,. .. ,en}, {e

1

,e′

2

,. .. ,e′

n} bases de E e v ∈ E. Ent˜ao, podemos

escrever:

v =

Xn

i=1

viei =

Xn

j=1

v

j

e

j

.

Mas e

1

,e′

2

,. .. ,e′

n

s˜ao elementos de E, e portanto podem ser expressos em rela¸c˜ao a base {e1,e2,. .. ,en}.

Logo:

e

j =

Xn

i=1

aij ei

, j = 1, 2,. .. ,n .

CAP´ITULO 1. CONCEITOS BASICOS ´ 5

Ent˜ao temos:

v =

Xn

i=1

vi ei =

Xn

j=1

v

j

e

j

=

Xn

j=1

v

j

Xn

i=1

aij ei

!

=

Xn

i=1

Xn

j=1

aij v

j

 ei

, ⇒ vi =

Xn

j=1

aijv

j

.

Assim, na forma matricial, podemos escrever:



v1

v2

.

.

.

vn



=



a11 a12 .. . a1n

a21 a22 .. . a2n

.

.

.

.

.

.

.

.

.

an1 an2 .. . ann





v

1

v

2

.

.

.

v

n



.

ou

v = A v′

e v

′ = A

−1

v .

Exerc´ıcios

1.1 - Seja v = (2, 3, 4)t na base canˆonica, isto ´e, na base:

{(1, 0, 0)t

, (0, 1, 0)t

, (0, 0, 1)t} .

Calcular as coordenadas de v na base:

{(1, 1, 1)t

, (1, 1, 0)t

, (1, 0, 0)t} .

1.2 - Seja v = 3 b1 + 4 b2 + 2 b3, onde:

b1 = (1, 1, 0)t

, b2 = (−1, 1, 0)t

, b3 = (0, 1, 1)t

.

Calcular as coordenadas de v na base:

f1 = (1, 1, 1)t

, f2 = (1, 1, 0)t

, f3 = (1, 0, 0)t

.

1.3 - Seja Kn(x) = {Pr(x) / r ≤ n} o espa¸co vetorial de todos os polinˆomios de grau ≤ n. A base

canˆonica para o espa¸co dos polinˆomios ´e {1, x, x2

, . ..}. Seja P3 = 3 + 4 x

2 + 2 x

3

e B1 =

{5, x − 1, x2 − 5 x + 3, x3 − 4} uma outra base. Calcular as coordenadas de P3 em rela¸c˜ao `a base B1.

1.4 - Sejam B1 = {5, x − 1, x2 − 3 x} e B2 = {8, 3 x + 2, 5 x

2 − 3 x} bases de K2(x). Seja

P2(x) = 8{5} + 4{x − 1} + 3{x

2 − 3x}. Calcular as coordenadas de P2(x) em rela¸c˜ao `a base B2.

1.5 - Dado o polinˆomio P3(x) = 20 x

3 + 8 x

2 − 14 x + 28 exprim´ı-lo como combina¸c˜ao linear dos

polinˆomios da sequˆencia:

Q3(x) = 5 x

3 − 7 x + 12,

Q2(x) = −4 x

2 + 8 x,

Q1(x) = 6 x − 1,

Q0(x) = 5.

Espa¸co Vetorial Euclidiano

Vamos definir aqui importantes no¸c˜oes de produto escalar e de ortogonalidade, visando introduzir,

entre outras coisas o conceito de comprimento e distˆancia.

Produto Escalar

Seja E um espa¸co vetorial real. Sejam x, y elementos de E.

CAP´ITULO 1. CONCEITOS BASICOS ´ 6

Defini¸c˜ao 1.4 - Chama-se produto escalar (ou produto interno) de x por y, em s´ımbolo, (x,y),

qualquer fun¸c˜ao definida em E × E com valores em IR satisfazendo as seguintes propriedades:

P1) (x,y) = (y, x), ∀x,y ∈ E ,

P2) (x + y, z) = (x,z) + (y, z), ∀x,y, z ∈ E ,

P3) (λx,y) = λ(x, y), ∀λ ∈ IR, ∀x,y ∈ E ,

P4) (x,x) ≥ 0 e (x,x) = 0 se e somente se x = θ(nulo).

Um espa¸co vetorial real E, onde est´a definido um produto escalar ´e chamado espa¸co euclidiano real.

Daremos a seguir alguns exemplos de produto escalar.

Exemplo 1.2 - Seja E = IR2

. Sejam x = (x1,x2)

t

; y = (y1,y2)

t

. Mostrar que, definindo:

(x, y) = x1 y1 + x2 y2 . (1.7)

o IR2

torna-se um espa¸co euclidiano real.

Solu¸c˜ao: Devemos mostrar que as condi¸c˜oes P1,P2,P3 e P4 est˜ao satisfeitas, isto ´e, que (1.7) ´e um

produto escalar bem definido no IR2

. De fato:

P1) (x, y) = x1y1 + x2y2 = y1x1 + y2x2 = (y, x).

P2) (x + y, z) = (x1 + y1)z1 + (x2 + y2)z2 = x1z1 + y1z1 + x2z2 + y2z2

= (x1z1 + x2z2) + (y1z1 + y2z2) = (x,z) + (y, z).

P3) (λ x, y) = λx1y1 + λx2y2 = λ(x1y1 + x2y2) = λ(x,y).

P4) (x, x) = x

2

1 + x

2

2 ≥ 0 (evidente).

(x, x) = x

2

1 + x

2

2 = 0 ⇔ x

2

i = 0 ⇔ xi = 0, ∀i ⇔ x = θ.

Logo, (1.7) ´e uma boa defini¸c˜ao de produto escalar.

Nos pr´oximos exemplos, a verifica¸c˜ao de que as condi¸c˜oes P1,P2,P3 e P4 s˜ao satisfeitas, fica como

exerc´ıcio.

Exemplo 1.3 - Seja E = IRn. Para x, y ∈ E, isto ´e, x = (x1, x2, . .., xn)

t

, e y = (y1, y2, . .., yn)

t

,

definimos:

(x,y) = Xn

i=1

xi yi

, (1.8)

como um produto escalar no IRn. (1.8) ´e chamado de produto escalar usual no IRn. Tamb´em,

(x, y) = Xn

i=1

wi xi yi

, (1.9)

com wi fixados e positivos, define no IRn um produto escalar.

Assim, tanto (1.8) como (1.9) transformam o IRn num espa¸co euclidiano real.

Exemplo 1.4 - Seja E = C[a,b] o espa¸co vetorial das fun¸c˜oes cont´ınuas reais definidas sobre o intervalo

limitado fechado [a,b]. Se para f,g ∈ C[a,b] definimos:

(f,g) = Z b

a

f(x) g(x)dx, (1.10)

tal espa¸co torna-se um espa¸co euclidiano real. (1.10) ´e chamado de produto escalar usual em C[a,b].

CAP´ITULO 1. CONCEITOS BASICOS ´ 7

Em particular, se f(x) = Pk(x) e g(x) = Pj (x), com k, j ≤ n, s˜ao polinˆomios de grau ≤ n, a

equa¸c˜ao (1.10) define um produto escalar em Kn = {Pr(x) / r ≤ n}, (espa¸co vetorial dos polinˆomios de

grau ≤ n).

Exemplo 1.5 - Seja E = Kn(x) = {Pr(x) / r ≤ n}. Sejam a ≤ x0 < x1 < .. . < xm ≤ b, m + 1 pontos

distintos, com m ≥ n. Definimos:

(Pi(x),Pj (x)) = Xm

k=0

Pi (xk) Pj (xk). (1.11)

como um produto escalar Kn.

Esse ´ultimo exemplo mostra uma outra maneira de se transformar Kn(x) num espa¸co euclidiano real,

maneira esta que ser´a ´util em problemas de aproxima¸c˜ao de fun¸c˜oes pelo m´etodo dos m´ınimos quadrados,

no caso discreto.

Ortogonalidade

Seja E um espa¸co euclidiano real. Sejam x,y elementos de E.

Defini¸c˜ao 1.5 - Dizemos que x ´e ortogonal a y, em s´ımbolo, x ⊥ y, se e somente se (x, y) = 0.

Observe que (x,θ) = (θ, x) = 0 qualquer que seja x, onde θ ´e o vetor nulo.

Exemplo 1.6 - No espa¸co E = C[−π,π], com (f,g) = R π

−π

f(x) g(x) dx, verificar se sen x e cos x s˜ao

ortogonais.

Solu¸c˜ao: Temos:

(sen x, cos x) = Z π

−π

sen x cos x dx =

sen2 x

2

−π

= 0 .

Assim, sen x e cos x s˜ao ortogonais em E.

Exemplo 1.7 - Em E = IR3

, com o produto escalar usual, verificar se os vetores: f1 =



1

3

, √

1

3

, √

1

3

t

e f2 =



1

2

, − √

1

2

, 0

t

s˜ao ortogonais.

Solu¸c˜ao: Temos:

(f1,f2) = 1

3

×

1

2

+

1

3

×



1

2



+

1

3

× 0

=

1

6

1

6

+ 0 = 0.

Logo, f1 e f2 s˜ao ortogonais em E.

Teorema 1.1 - Os vetores v1,v2,. .. ,vm tais que:

a) vi 6= θ, i = 1, 2,. .. ,m ;

b) (vi

,vj ) = 0, para i 6= j;

s˜ao sempre linearmente independentes.

CAP´ITULO 1. CONCEITOS BASICOS ´ 8

Dito de outro modo:os vetores n˜ao nulos v1,v2,. .. ,vm, dois a dois ortogonais, s˜ao sempre linearmente

independentes.

Prova: Devemos provar que:

α1v1 + α2v2 + .. . + αmvm = 0 (1.12)

⇒ α1 = α2 = .. . = αm = 0.

Em virtude de (1.12) podemos escrever, sucessivamente, para cada i = 1, 2,. .. ,m:

(vi

, α1v1 + α2v2 + .. . + αivi + .. . + αmvm) = (vi

, 0) = 0,

ou seja:

α1 (vi

,v1) + α2 (viv2) + .. . + αi (vi

,vi) + .. . + αm (vi

,vm) = 0.

onde aplicamos P2 e P3. Mas (vi

,vj ) = 0 , i 6= j. Da´ı, a igualdade acima se reduz a:

αi (vi

,vi) = 0.

Mas sendo vi 6= θ, temos, usando P4, que (vi

,vi) 6= 0, para i = 1, 2,. .. ,m. Portanto, da ´ultima

igualdade conclu´ımos que,

αi = 0, i = 1, 2,. .. ,m.

Logo, os vetores v1,v2,. .. ,vm s˜ao linearmente independentes.

Defini¸c˜ao 1.6 - Seja E um espa¸co euclidiano de dimens˜ao n. Se f1,f2,. .. ,fn s˜ao dois a dois ortogonais,

ou seja, se (fi

,fj ) = 0, i 6= j, eles constituem uma base de E, que ser´a chamada de base ortogonal.

Teorema 1.2 - A condi¸c˜ao necess´aria e suficiente para que um vetor v ∈ E seja ortogonal a um subespa¸co

E′ ⊂ E ´e que v seja ortogonal a cada vetor e1,e2,. .. ,en de uma base de E′

.

Prova: A condi¸c˜ao ´e evidentemente necess´aria. Provemos a suficiˆencia. Seja x um vetor qualquer de

E′

. Temos ent˜ao:

x = α1 e1 + α2 e2 + .. . + αn en,

desde que e1,e2,. .. ,en ´e uma base de E′

. Devemos mostrar que v ⊥ x. Assim:

(v,x) = (v, α1 e1 + α2 e2 + .. . + αn en)

= α1 (v,e1) + α2 (v,e2) + .. . + αn (v,en) = 0,

desde que por hip´otese, v ⊥ {e1,e2,. .. ,en}. Logo v ´e ortogonal a E′

.

Teorema 1.3 - Num espa¸co euclidiano real E quaisquer que sejam x, y ∈ E, temos:

(x, y)

2 ≤ (x, x) (y, y), (1.13)

com igualdade v´alida se e somente se x e y s˜ao linearmente dependentes.

A desigualdade (1.13) ´e chamada desigualdade de Schwarz.

Prova: Tomemos o vetor v = x + λ y, onde λ ´e um n´umero real qualquer. De P4, resulta:

(x + λ y,x + λ y) ≥ 0 ,

e usando P2 e P3, obtemos:

λ

2

(y, y) + 2λ(x, y) + (x,x) ≥ 0 .

CAP´ITULO 1. CONCEITOS BASICOS ´ 9

Para que o trinˆomio seja sempre ≥ 0 ´e necess´ario que ∆ ≤ 0. Assim:

∆ = 4(x,y)

2 − 4(x,x)(y, y) ≤ 0,

⇒ (x, y)

2 ≤ (x, x)(y, y).

Mostremos agora que a igualdade ´e v´alida se e somente se x e y s˜ao linearmente dependentes. Seja

x = λ y. Ent˜ao:

(x, y)

2 = (λy, y)

2 = [λ(y, y)]2 = λ

2

(y, y)

2

= λ

2

(y, y)(y, y) = (λy, λy)(y, y) = (x, x)(y, y).

Isto ´e, x e y linearmente dependentes =⇒ (x, y)

2 = (x,x)(y, y).

Suponhamos, agora que a igualdade seja v´alida em (1.13). O caso y = θ ´e trivial. Suponhamos y 6= θ.

Temos que (x,y)

2 = (x,x)(y, y) ´e equivalente a:

(x + λ y,x + λ y) = 0 com λ = −

(x,y)

(y, y)

.

Assim, de P4, conclu´ımos que x + λ y = 0. Ou seja x =

(x,y)

(y, y)

y, e isto quer dizer que x e y s˜ao

linearmente dependentes.

Exerc´ıcios

1.6 - Em rela¸c˜ao ao produto escalar usual do IR3

, calcule (x,y) nos seguintes casos:

a) x = (1/2, 2, 1)t

, y = (4, 1, −3)t

;

b) x = (2, 1, 0)t

, y = (4, 0, 2)t

;

1.7 - Determinar (f,g) = R 1

0

f(t)g(t)dt para cada um dos seguintes pares de vetores de K2(t).

a) f(t) = t , g(t) = 1 − t

2

;

b) f(t) = t −

1

2

, g(t) = 1

2



t −

1

2



;

1.8 - Sejam x = (x1,x2)

t

e y = (y1,y2)

t dois vetores quaisquer do IR2

. Mostre que:

(x, y) = x1x2

a

2

+

y1y2

b

2

,

com a,b ∈ IR fixos e n˜ao nulos define um produto escalar sobre o IR2

.

1.9 - Considere no espa¸co vetorial IR2 o produto escalar dado por: (x,y) = x1y1 + 2x2y2, para todo

par de vetores x = (x1,x2)

t

e y = (y1,y2)

t

. Verificar se x e y s˜ao ortogonais em rela¸c˜ao a esse produto

escalar nos seguintes casos:

a) x = (1, 1)t

e y = (2, −1)t

;

b) x = (2, 1)t

e y = (−1, 1)t

;

b) x = (3, 2)t

e y = (2, −1)t

;

CAP´ITULO 1. CONCEITOS BASICOS ´ 10

1.10 - Determine m de modo que sejam ortogonais os vetores x = (m + 1, 2)t

e y = (−1, 4)t

em

rela¸c˜ao ao produto escalar usual do IR2

.

1.11 - Determinar f(x) ∈ K2(x) que seja ortogonal a g(x) = 1 e h(x) = t, em rela¸c˜ao ao produto

escalar dado por:

(f,g) = Z 1

−1

f(x) g(x) dx .

1.12 - Considere no IR3 o produto escalar usual. Determine m ∈ IR de tal modo que os vetores

u = (1, m + 1, m)

t

, v = (m − 1, m, m + 1)t

, sejam ortogonais.

1.13 - Sejam f(x) = x, g(x) = mx2 − 1 e considere o produto escalar usual em C[0, 1]. Determine o

valor de m, para que f(x) e g(x) sejam ortogonais.

Espa¸co Vetorial Normado

Vamos definir agora importantes defini¸c˜oes de norma de vetor e de matriz. Com isso estaremos aptos

a definir, quando oportuno, as no¸c˜oes de limite de uma sequˆencia de vetores ou de matrizes, de grande

utilidade, entre outros, no estudo de convergˆencia de m´etodos iterativos de solu¸c˜ao de sistemas lineares

e do problema de erros de arredondamento nos processos de c´alculo onde intervˆem matrizes ou vetores.

Norma de Vetor

Defini¸c˜ao 1.7 - Chama-se norma de um vetor x, em s´ımbolo, k x k, qualquer fun¸c˜ao definida num

espa¸co vetorial E, com valores em IR , satisfazendo as seguintes condi¸c˜oes:

N1) k x k ≥ 0 e k x k = 0 se e somente se x = θ ,

N2) k λ x k = |λ| k x k para todo escalar λ

N3) k x + y k ≤ k x k + k y k (desigualdade triangular).

Um espa¸co vetorial E, onde est´a definida uma norma ´e chamado espa¸co vetorial normado.

Daremos a seguir alguns exemplos de norma no IRn.

Exemplo 1.8 - Seja E = IRn, e seja x = (x1,x2,. .. ,xn)

t

. Mostrar que, definindo:

k x kE =

vuutXn

i=1

x

2

i

, (1.14)

o IRn torna-se um espa¸co vetorial normado.

Solu¸c˜ao: Vamos mostrar que as condi¸c˜oes N1,N2 e N3 est˜ao satisfeitas, isto ´e, que (1.14) ´e uma norma

CAP´ITULO 1. CONCEITOS BASICOS ´ 11

bem definida no IRn. De fato:

N1) k x kE =

vuutXn

i=1

x

2

i ≥ 0 (evidente).

k x kE =

vuutXn

i=1

x

2

i = 0 ⇔

Xn

i=1

x

2

i = 0 ⇔ xi = 0, ∀i ⇔ x = θ.

N2) k λx kE =

vuutXn

i=1

λ2x

2

i =

vuutλ2Xn

i=1

x

2

i = |λ|

vuutXn

i=1

x

2

i = |λ| k x kE .

N3) k x + y k

2

E =

Xn

i=1

(xi + yi)

2 = (x1 + y1)

2 + (x2 + y2)

2 + .. . + (xn + yn)

2

= x

2

1 + 2x1y1 + y

2

1 + x

2

2 + 2x2y2 + y

2

2 + .. . + x

2

n + 2xnyn + y

2

n

=

Xn

i=1

x

2

i + 2 Xn

i=1

xiyi +

Xn

i=1

y

2

i

Xn

i=1

x

2

i + 2

vuutXn

i=1

x

2

i

vuutXn

i=1

y

2

i +

Xn

i=1

y

2

i

,

onde usamos a desigualdade de Schwarz, isto ´e:

Xn

i=1

xiyi ≤

vuutXn

i=1

x

2

i

vuutXn

i=1

y

2

i

.

Portanto,

k x + y k

2

E ≤ k x k

2

E + 2 k x kE k y kE + k y k

2

E

= (k x kE + k y kE)

2

.

Assim: k x + y k

2

E ≤ (k x kE + k y kE)

2

. Extraindo-se a raiz quadrada de ambos os membros,

temos que: k x + y kE ≤ k x kE + k y kE.

Logo, (1.14) ´e uma boa defini¸c˜ao de norma.

No pr´oximo exemplo, a verifica¸c˜ao de que as condi¸c˜oes N1,N2 e N3 s˜ao satisfeitas, fica como exerc´ıcio.

Exemplo 1.9 - Seja E = IRn, e seja x = (x1,x2,. .. xn)

t

. Definimos ent˜ao:

k x k∞ = max

1≤i≤n

|xi

| ,

k x k1 =

Xn

i=1

|xi

| ,

k x k =

p

(x, x) ,

como normas no IRn.

Observa¸c˜oes:

1) k x k=

p

(x,x) corresponde `a no¸c˜ao intuitiva de comprimento ou m´odulo de um vetor.

CAP´ITULO 1. CONCEITOS BASICOS ´ 12

2) Se usarmos a defini¸c˜ao usual de produto escalar no IRn p

, isto ´e, se usarmos (1.8), ent˜ao: k x k =

(x, x) = pPn

i=1 x

2

i = k x kE.

Exemplo 1.10 - Seja x = (−1, 10, 3, 4, −20)t

. Calcular k x kE, k x k∞ e k x k1 .

Solu¸c˜ao: Aplicando a defini¸c˜ao de cada uma das normas, obtemos:

k x kE =

p

(−1)2 + (10)2 + 32 + 42 + (−20)2 ≃ 22.93,

k x k∞ = max (| − 1|, |10|, |3|, |4|, | − 20|) = 20,

k x k1 = | − 1| + |10| + |3| + |4| + | − 20| = 38.

Como vocˆe pode observar a aplica¸c˜ao de cada uma das normas definidas anteriormente fornece um

resultado diferente. Entretanto, no IRn, todas as normas s˜ao equivalentes.

Defini¸c˜ao 1.8 - Duas normas k · ka e k · kb s˜ao equivalentes se existem constantes k1 e k2 tais que:

k1 k x ka ≤ k x kb ≤ k2 k x ka , ∀ x ∈ E. (1.15)

Exemplo 1.11 - Como exemplos de normas equivalentes, no IRn, temos:

a) k x k∞ ≤ k x k1 ≤ n k x k∞ ,

b) k x k∞ ≤ k x kE ≤

n k x k∞ ,

c)

1

n

k x k1 ≤ k x kE ≤

x k x k1 .

Vamos verificar que o item a) ´e verdadeiro; a verifica¸c˜ao das demais fica como exerc´ıcio.

Solu¸c˜ao: Temos:

k x k∞ = max

1≤i≤n

|xi

| = max{|x1|, |x2|,. .. , |xn|}

= |xk| ≤ |xk| +

k

X−1

i=1

|xi

| +

Xn

i=k+1

|xi

| =

Xn

i=1

|xi

| = k x k1

= |x1| + |x2| + .. . + |xn| ≤ {|xk| + |xk| + .. . + |xk|

| {z }

n vezes

}

= n|xk| = n max

1≤i≤n

|xi

| = n k x k∞ .

Teorema 1.4 - A desigualdade de Schwarz (1.13) pode ser escrita como:

|(x, y)| ≤ k x k k y k . (1.16)

Prova: A prova deste teorema fica como exerc´ıcio.

Um vetor x, de E, ´e unit´ario se seu comprimento ´e igual a 1, isto ´e, se k x k= 1.

Defini¸c˜ao 1.9 - Seja E um espa¸co euclidiano de dimens˜ao n. Os vetores f1,f2,. .. ,fn formam uma

base ortonormal de E se eles forem vetores ortonormais, ou seja, se:

(fi

,fj ) = δij =



1 se i = j,

0 se i 6= j.

CAP´ITULO 1. CONCEITOS BASICOS ´ 13

Assim uma sequˆencia de vetores ´e ortonormal se cada um dos seus elementos tem norma 1 e dois

quaisquer distintos dentre eles s˜ao ortogonais.

Teorema 1.5 - Num espa¸co euclidiano, um conjunto ortornormal de vetores ´e sempre linearmente independente.

Prova: (an´aloga ao do Teorema 1.1)).

Defini¸c˜ao 1.10 - Seja E um espa¸co euclidiano. Dados os vetores x e y ∈ E, definimos distˆancia entre

x e y, o comprimento do vetor x − y, isto ´e:

d(x,y) = k x − y k → d(x,y) = p

(x − y, x − y).

Temos assim uma aplica¸c˜ao d : E × E → IR, que satisfaz as seguintes condi¸c˜oes:

D1) d(x,y) ≥ 0 e d(x, y) = 0 se e somente se x = y ,

D2) d(x,y) = d(y, x) , ∀x, y ∈ E ,

D3) d(x,y) ≤ d(x, z) + d(z,y) , ∀x,y, z ∈ E .

Norma de Matriz

Como j´a dissemos anteriormente, o conjunto das matrizes (n × n), com as opera¸c˜oes de soma de

matrizes e produto de um escalar por uma matriz forma um espa¸co vetorial E de dimens˜ao n

2

. Podemos

ent˜ao falar em norma de uma matriz A ∈ E. Observe ent˜ao que no caso de matrizes, vale a mesma

defini¸c˜ao de norma de vetor , isto ´e:

Defini¸c˜ao 1.11 - Chama-se norma de uma matriz A, em s´ımbolo, k A k, qualquer fun¸c˜ao definida no

espa¸co vetorial das matrizes n × n, com valores em IR , satisfazendo as seguintes condi¸c˜oes:

M1) k A k ≥ 0 e k A k = 0 se e somente se A = θ(matriz nula) ,

M2) k λ A k = |λ| k A k para todo escalar λ ,

M3) k A + B k ≤ k A k + k B k (desigualdade triangular) .

Daremos a seguir alguns exemplos de norma de matrizes. A verifica¸c˜ao de que s˜ao normas bem

definidas no espa¸co vetorial das matrizes n × n, fica a cargo do leitor.

Exemplo 1.12 - Seja A uma matriz (n × n). Definimos ent˜ao:

a) k A k∞ = max

1≤i≤n

Xn

j=1

|aij | (norma linha) ;

b) k A k1 = max

1≤j≤n

Xn

i=1

|aij | (norma coluna) ;

c) k A kE =

vuut

Xn

i,j=1

a

2

ij (norma euclidiana) .

Para essas normas vale: k AB k≤k A kk B k. (Prove).

Exemplo 1.13 - Seja

A =

3 2 −1

6 3 4

−1 2 1

 .

Calcular ||A||∞, ||A||1, ||A||E .

CAP´ITULO 1. CONCEITOS BASICOS ´ 14

Solu¸c˜ao: Usando cada uma das defini¸c˜oes dadas anteriormente, obtemos:

||A||∞ = |6| + |3| + |4| = 13 ,

||A||1 = |3| + |6| + | − 1| = 10 ,

||A||E = (9 + 4 + 1 + 36 + 9 + 16 + 1 + 4 + 1)1/2 = 9 .

Como no caso de vetor, as normas de matrizes tamb´em s˜ao equivalentes, isto ´e, satisfazem uma rela¸c˜ao

do tipo (1.15), com o vetor x substitu´ıdo pela matriz A. A verifica¸c˜ao das desigualdades no pr´oximo

exemplo fica como exerc´ıcio.

Exemplo 1.14 - Como exemplos de normas equivalentes, no espa¸co vetorial das matrizes de ordem n,

temos:

a)

1

n

k A k∞ ≤ k A kE ≤

n k A k∞ ,

b)

1

n

k A k1 ≤ k x kE ≤

n k x k1 ,

c) k A k∞ ≤ n k A k1 ,

d) k A k1 ≤ n k A k∞ .

Defini¸c˜ao 1.12 - Dada uma norma de vetor, podemos definir uma norma de matriz, que ser´a chamada

de subordinada a ela do seguinte modo:

k A k= sup

kxk=1

k Ax k .

Observe que a norma de matriz assim definida pode ser interpretada como sendo o comprimento do

maior vetor no conjunto imagem {Ax} da esfera unit´aria {x / k x k= 1} pela transforma¸c˜ao x → Ax.

Defini¸c˜ao 1.13 - Se uma norma de matriz e uma norma de vetor est˜ao relacionadas de tal modo que a

desigualdade:

k Ax k ≤ k A kk x k ,

´e satisfeita para qualquer x, ent˜ao dizemos que as duas normas s˜ao consistentes.

Note que existe um vetor x0 tal que: k Ax k=k A kk x k. Nestas condi¸c˜oes: k A k= mink tal que

k Ax k≤ k k x k .

Exerc´ıcios

1.14 - Considere os vetores do IR6

: x = (1, 2, 0, −1, 2, −10)t

e y = (3, 1, −4, 12, 3, 1)t

. Calcule

a norma de cada um desses vetores usando as normas definidas no exemplo 1.9.

1.15 - No espa¸co vetorial IR4

, munido do produto escalar usual, sejam x = (1, 2, 0, 1)t

e y =

(3, 1, 4, 2)t

. Determine: (x,y), k x k, k y k,d(x,y) e

x + y

k x + y k

.

1.16 - Prove que num espa¸co euclidiano normado:

a) k x + y k

2 + k x − y k

2= 2(k x k

2k +y k

2

),

b) | k x k − k y k | ≤k x − y k.

CAP´ITULO 1. CONCEITOS BASICOS ´ 15

1.17 - Sejam u e v vetores de um espa¸co euclidiando tais que k u k= 1, k v k= 1 e k u − v k= −2.

Determine (u, v).

1.18 - Considere as seguintes matrizes:

A =



2 1

3 2 

; B =

3 2 1

2 2 1

3 3 2

 ; C =



2 1 3 −1

4 3 8 2

6 7 10 1

3 −1 0 1

 .

Calcule a norma de cada uma delas usando as normas definidas no exemplo 1.12.

1.3 Processo de Gram-Schmidt

Em diversos problemas relacionados com espa¸co vetorial, a escolha de uma base para o espa¸co fica

a crit´erio da pessoa que se propˆos a resolver o problema. E claro que sempre a melhor estrat´egia ser´a ´

escolher a base que melhor simplifique os c´alculos. Em espa¸cos euclidianos, tem-se muitas vezes o caso

em que a melhor escolha da base ´e aquela onde todos os seus vetores s˜ao mutuamente ortogonais ou

ortonormais.

Vimos anteriormente que uma sequˆencia ortonormal de vetores ´e sempre linearmente independente.

Vamos agora mostrar que ´e sempre poss´ıvel construir, a partir de uma sequˆencia de vetores linearmente

independentes {f1,f2,. .. ,fn}, uma sequˆencia ortogonal {e1,e2,. .. ,en}.

Para obtermos uma sequˆencia ortonormal {e

1

,e∗

2

,. .. ,e∗

n}, basta fazer:

e

i =

ei

k ei k

, i = 1, 2,. .. ,n.

Teorema 1.6 - Todo espa¸co euclidiano n dimensional tem uma base ortogonal e uma base ortonormal.

Prova: Todo espa¸co euclidiano E ´e um espa¸co vetorial, e, portanto tem uma base. Seja f1,f2,. .. ,fn

uma base desse espa¸co euclidiano. Vamos construir a partir de f1,f2,. .. ,fn uma base ortogonal de E.

Seja {e1,e2,. .. ,en} a base procurada.

Tomamos e1 como sendo igual ao primeiro elemento da sequˆencia dada, isto ´e:

e1 = f1 .

O elemento e2 ser´a tomado como combina¸c˜ao linear do segundo elemento da sequˆencia dada e e1, ou

seja:

e2 = f2 + α1 e1 ,

onde α1 ´e escolhido de tal maneira que e2 seja ortogonal a e1. Assim: (e2,e1) = 0 → (f2 +α1 e1,e1) = 0.

Portanto, segue que:

α1 = −

(f2,e1)

(e1,e1)

.

Vamos supor que j´a temos constru´ıdo os vetores: e1,e2,. .. ,ek−1, dois a dois ortogonais. O elemento

ek ser´a tomado como combina¸c˜ao linear do k

o

elemento da sequˆencia dada e todos os ei

, j´a calculados,

isto ´e:

ek = fk + αk−1 ek−1 + αk−2 ek−2 + .. . + α1 e1 ,

CAP´ITULO 1. CONCEITOS BASICOS ´ 16

onde os αi

, i = 1, 2,. .. ,k − 1, s˜ao determinados de tal maneira que ek seja ortogonal a todos os ei j´a

calculados. Assim, devemos ter: (ek,ei) = 0, i = 1, 2,. .. ,k − 1, ou seja:

(ek,e1) = (fk + αk−1ek−1 + .. . + α1e1,e1) = 0 ,

(ek,e2) = (fk + αk−1ek−1 + .. . + α1e1,e2) = 0 ,

.

.

.

(ek,ek−1) = (fk + αk−1ek−1 + .. . + α1e1,ek−1) = 0 .

Desde que os vetores e1,e2,. .. ,ek−1 foram constru´ıdos dois a dois ortogonais, obtemos:

(fk,e1) + α1 (e1,e1) = 0 ,

(fk,e2) + α2 (e2,e2) = 0 ,

.

.

.

(fk,ek−1) + αk−1 (ek−1,ek−1) = 0 .

Portanto, segue que:

α1 = −

(fk,e1)

(e1,e1

,

α2 = −

(fk,e2)

(e2,e2)

,

.

.

.

αk−1 = −

(fk,ek−1)

(ek−1,ek−1)

.

Mostremos agora que ek 6= 0. De fato, temos que ek ´e combina¸c˜ao linear dos vetores e1,e2,. .. ,ek−1,fk.

Mas ek−1 pode ser escrito com combina¸c˜ao linear dos vetores e1,e2,. .. ,ek−2,fk−1 e assim por diante.

Ent˜ao, substituindo, teremos:

ek = a1 f1 + a2 f2 + .. . + ak−1 fk−1 + fk ,

e como f1,f2,. .. ,fk, s˜ao linearmente independentes, temos que ek 6= 0; qualquer que seja k.

Assim, usando e1,e2,. .. ,ek−1 e fk constru´ımos ek. Analogamente com e1,e2,. .. ,ek e fk+1 constru´ımos

ek+1. Continuando o processo, constru´ımos os n vetores dois a dois ortogonais. Assim esses

vetores formam uma base ortogonal de E. Tomando:

e

i =

ei

k ei k

, i = 1, 2,. .. ,n ;

teremos uma base ortonormal de E.

Chama-se processo de Gram-Schmidt a constru¸c˜ao passo a passo (descrita na prova do teorema

1.6) para converter uma base arbitr´aria em base ortogonal.

Exemplo 1.15 - Construir a partir de

f1 = (1, −2, 0)t

,f2 = (0, 1, 1)t

,f3 = (1, 0, −1)t

;

uma sequˆencia de vetores ortonormais e

1

,e∗

2

,e∗

3

, relativamente ao produto escalar usual do IR3

, usando o

processo de Gram-Schmidt.

CAP´ITULO 1. CONCEITOS BASICOS ´ 17

Solu¸c˜ao: Temos:

e1 = f1 = (1, −2, 0)t

.

e2 = f2 + α1 e1, onde

α1 = −

(f2,e1)

(e1,e1)

= −

−2

5

=

2

5

e2 = (0, 1, 1)t +

2

5

(1, −2, 0)t =



2

5

,

1

5

, 1

t

.

e3 = f3 + α2e2 + α1e1, onde

α2 = −

(f3,e2)

(e2,e2)

= −

−3/5

6/5

=

1

2

,

α1 = −

(f3,e1)

(e1,e1)

= −

1

5

e3 = (1, 0, −1)t +

1

2



2

5

,

1

5

, 1



1

5

(1, −2, 0)t =



1,

1

2

, −

1

2

t

.

Assim e1,e2,e3 s˜ao dois a dois ortogonais. Para obtermos a sequˆencia ortonormal e

1

,e∗

2

,e∗

3

, fazemos:

e

1 =

e1

k e1 k

= p

e1

(e1,e1)

=

(1, −2, 0)t

p

1

2 + (−2)2 + 02

=



1

5

, √−2

5

, 0

t

;

e

2 =

e2

k e2 k

= p

e2

(e2,e2)

=

(2/5, 1/5, 1)t

p

(2/5)2 + (1/5)2 + 12

=

q

5

6



2

5

,

1

5

, 1

t

;

e

3 =

e3

k e3 k

= p

e3

(e3,e3)

=

(1, 1/2, −1/2)t

p

1

2 + (1/2)2 + (−1/2)2

=

q

2

3



1,

1

2

, −12t

.

Exemplo 1.16 - Dada a sequˆencia de polinˆomios independentes {1, x, x2} obter, no intervalo [−1, 1],

uma sequˆencia ortogonal de polinˆomios {P0(x),P1(x),P2(x)} relativamente ao produto escalar (f,g) =

R 1

−1

f(x) g(x) dx .

Solu¸c˜ao: Temos:

P0(x) = 1 ,

P1(x) = x + α0P0(x) , onde

α0 = −

(x, P0(x))

(P0(x),P0(x)) = −

R 1

−1

x dx

R 1

−1

dx

=

x

2/2

x

 1

−1

= 0 ⇒

P1(x) = x + 0 × 1 = x.

P2(x) = x

2 + α1P1(x) + α0P0(x), onde

α1 = −

(x

2

, P1(x))

(P1(x),P1(x)) = −

R 1

−1

x

3 dx

R 1

−1

x

2 dx

=

x

4/4

x

3/3

 1

−1

= 0 ,

α0 = −

(x

2

, P0(x))

(P0(x),P0(x)) = −

R 1

−1

x

2 dx

R 1

−1

dx

= −

x

3/3

x

 1

−1

= −

2/3

2

= −

1

3

P2(x) = x

2 + 0 × x −

1

3

× 1 = x

2 −

1

3

.

CAP´ITULO 1. CONCEITOS BASICOS ´ 18

Assim P0(x),P1(x),P2(x) s˜ao dois a dois ortogonais.

Observe que sempre que desejarmos obter uma sequˆencia de polinˆomios ortogonais sobre um determinado

intervalo, podemos tomar a sequˆencia 1, x, x2

,. .. como sendo a sequˆencia original e ortogonaliz´a-la.

Exerc´ıcios

1.19 - Usando o processo de Gram-Schmidt e o produto escalar usual do IR3

, ortonormalizar a base:

e1 = (1, 1, 1)t

,e2 = (1, −1, 1)t

,e3 = (−1, 0, 1)t

.

1.20 - Os vetores {(0, 2, 1, 0)t

,(1, −1, 0, 0)t

,(1, 2, 0, −1)t

,(1, 0, 0, 1)t} constituem uma base

n˜ao ortonormal do IR4

. Construir a partir desses vetores, uma base ortonormal para o IR4

, usando o

processo de Gram-Schmidt.

1.21 - Ortonormalize a sequˆencia de polinˆomios obtida no exemplo 1.16.

1.22 - Usando o produto escalar usual em C[1, 2] e o processo de Gram-Schmidt construa uma sequˆencia

de polinˆomios ortonormais.

1.4 Proje¸c˜ao Ortogonal

Veremos aqui a proje¸c˜ao ortogonal de um vetor sobre outro bem como a proje¸c˜ao ortogonal de um

vetor sobre um sub-espa¸co. Esse ´ultimo ser´a utilizado no estudo de aproxima¸c˜oes de fun¸c˜oes pelo m´etodo

dos m´ınimos quadrados.

Proje¸c˜ao Ortogonal de um Vetor sobre Outro

Sejam x e y vetores n˜ao nulos. Escolhemos um n´umero real λ tal que λ y seja ortogonal a x − λ y,

como sugere a Figura 1.2, no caso em que E = IR2

.

x − λ y

λ y

x

y

✯ ✻

✲ ✲

Figura 1.2

De λ y ⊥ (x − λ y), conclu´ımos que (λ y,x − λ y) = 0. Portanto, aplicando P3, segue que:

λ(y, x) − λ

2

(y, y) = 0 → λ =

(x,y)

(y, y)

.

Assim, obtemos a seguinte defini¸c˜ao.

Defini¸c˜ao 1.14 - Num espa¸co euclidiano real, chama-se proje¸c˜ao ortogonal de x sobre y, y 6= θ, o

vetor z definido por:

z = (proje¸c˜ao de x sobre y) = (x,y)

(y, y)

y.

CAP´ITULO 1. CONCEITOS BASICOS ´ 19

Se k y k= 1, ent˜ao a proje¸c˜ao de x sobre y ´e dada por (x, y) y.

Proje¸c˜ao Ortogonal de um Vetor sobre um Sub-Espa¸co

Seja E um espa¸co euclidiano e seja E′

, de dimens˜ao finita n, um sub-espa¸co de E.

Seja v um vetor de E n˜ao pertencente a E′

.

O problema que desejamos resolver agora ´e o de obter um vetor v0 ∈ E′

tal que v − v0 seja ortogonal

a todo vetor de E′

. (A Figura 1.3 ilustra o problema, para o caso em que E = IR3

e E′ = IR2

).

e1

e2

v − v0

v0

v

✒✻

✲ ✲

Figura 1.3

Seja {e1,e2,. .. ,en} uma base de E′

. Como v0 ∈ E′

, v0 pode ser escrito como combina¸c˜ao linear dos

vetores da base de E′

, isto ´e:

v0 = γ1 e1 + γ2 e2 + .. . + γn en . (1.17)

O nosso problema consiste em determinar, caso poss´ıvel, as coordenadas γ1,γ2,. .. ,γn de v0.

Sabemos que se v − v0 deve ser ortogonal a todo vetor de E′

ent˜ao ´e necess´ario e suficiente que v − v0

seja ortogonal a todo vetor de uma base de E′

(Teorema 1.2). Ent˜ao, devemos ter:

(v − v0,ej ) = 0 para j = 1, 2,. .. ,n ; ou seja :

(v − (γ1 e1 + γ2 e2 + .. . + γn en),ej ) = 0 , j = 1, 2,. .. ,n.

A aplica¸c˜ao de P2 e P3, fornece:

γ1 (e1,ej ) + γ2 (e2,ej ) + .. . + γn (en,ej ) = (v,ej ) , j = 1,. .. ,n .

Tais equa¸c˜oes s˜ao conhecidas por equa¸c˜oes normais.

Assim, para obtermos as coordenadas de v0 na base {e1,e2,. .. ,en}, devemos resolver o sistema de

equa¸c˜oes lineares:



(e1,e1) (e2,e1) .. . (en,e1)

(e1,e2) (e2,e2) .. . (en,e2)

.. .

(e1,en) (e2,en) .. . (en,en)





γ1

γ2

.

.

.

γn



=



(v,e1)

(v,e2)

.

.

.

(v,en)



, (1.18)

cuja matriz dos coeficientes ´e sim´etrica.

Mostremos agora que o sistema (1.18) tem uma e uma s´o solu¸c˜ao, isto ´e, que o problema de determina¸c˜ao

do vetor v0 ∈ E′

, tal que v − v0 seja ortogonal a todo vetor de E′

, tem solu¸c˜ao ´unica.

CAP´ITULO 1. CONCEITOS BASICOS ´ 20

O vetor v0 ´e denominado proje¸c˜ao ortogonal de v sobre o sub-espa¸co E′

.

Vamos supor que nossa base de partida fosse uma base {e

1

,e′

2

,. .. ,e′

n} ortonormal. Esta n˜ao seria uma

hip´otese restritiva, uma vez que ´e sempre poss´ıvel passar-se de uma dada base para uma base ortonormal,

(ver processo de Gram-Schmidt).

Em termos da base ortonormal considerada o vetor v0 se exprimiria como:

v0 = γ

1

e

1 + γ

2

e

2 + .. . + γ

n

e

n

.

O sistema linear (1.18) se reduziria a:



1

1

.

.

.

1





γ

1

γ

2

.

.

.

γ

n



=



(v,e′

1

)

(v,e′

2

)

.

.

.

(v,e′

n

)



,

ou simplesmente a:

γ

j =

v,e′

j



, j = 1, 2,. .. ,n , (1.19)

e portanto os γ

j

seriam univocamente determinados.

Sabemos que, conhecidas as coordenandas de um vetor numa base, suas coordenadas em outra qualquer

base s˜ao tamb´em univocamente determinadas. Assim, o sistema (1.18) tem uma ´unica solu¸c˜ao

(γ1,γ2,. .. ,γn)

t

e a matriz do sistema em apre¸co ´e sempre n˜ao singular. A proje¸c˜ao ortogonal v0 de v

sobre E′ ´e, portanto, ´unica.

Exemplo 1.17 - Seja E = C[−1, 1], com (f,g) = R 1

−1

f(x)g(x)dx. Seja K2(x) o sub-espa¸co dos polinˆomios

de grau ≤ 2. O conjunto {L0(x) = 1, L1(x) = x, L2(x) = x

2} constitui uma base de K2(x).

Determinar a proje¸c˜ao ortogonal de f(x) = 1

x + 4 sobre k2(x).

Solu¸c˜ao: De (1.17) temos: f0 = γ0 L0(x) + γ1 L1(x) + γ2 L2(x). Assim, devemos determinar γ0,γ1,γ2.

Para tanto, montamos o sistema (1.18):

(L0,L0) (L1,L0) (L2,L0)

(L0,L1) (L1,L1) (L2,L1)

(L0,L2) (L1,L2) (L2,L2)

γ0

γ1

γ2

 =

(f,L0)

(f,L1)

(f,L2)

 ;

onde:

(L0,L0) = Z 1

−1

dx = x]

1

−1 = 2 ,

(L1,L0) = (L0,L1) = Z 1

−1

x dx =

x

2

2

 1

−1

= 0 ,

(L2,L0) = (L0,L2) = Z 1

−1

x

2

dx =

x

3

3

 1

−1

=

2

3

,

(L1,L1) = Z 1

−1

x

2

dx =

2

3

,

CAP´ITULO 1. CONCEITOS BASICOS ´ 21

(L2,L1) = (L1,L2) = Z 1

−1

x

3

dx =

x

4

4

 1

−1

= 0 ,

(L2,L2) = Z 1

−1

x

4

dx =

x

5

5

1

−1

=

2

5

,

(f,L0) = Z 1

−1

1

x + 4

dx = (ln (x + 4))] 1

−1 = 0.51083 ,

(f,L1) = Z 1

−1

x

x + 4

dx =

Z 1

−1



1 −

4

x + 4

dx

= (x − 4 ln (x + 4))] 1

−1 = −0.04332 ,

(f,L2) = Z 1

−1

x

2

x + 4

dx =

Z 1

−1



x − 4 + 16

x + 4

dx

=



x

2

2

− 4 x + 16 ln (x + 4) 1

−1

= 0.17328 .

Assim, obtemos o sistema linear:

2 0 2/3

0 2/3 0

2/3 0 2/5

γ0

γ1

γ2

 =

0.51083

−0.04332

0.17328

 ,

cuja solu¸c˜ao ´e: γ0 = 0.24979 ; γ1 = − 0.06498 ; γ2 = 0.01688. Ent˜ao, a proje¸c˜ao ortogonal de f(x) =

1

x + 4 sobre K2(x) ´e:

f0 = 0.24979 L0(x) − 0.06498 L1(x) + 0.01688 L2(x)

= 0.24979 − 0.06498 x + 0.01688 x

2

.

Teorema 1.7 - Teorema da Melhor Aproxima¸c˜ao - Seja E′ um sub-espa¸co de dimens˜ao finita de

um espa¸co euclidiano E. Se v for um vetor pertencente a E, ent˜ao v0, a proje¸c˜ao ortogonal de v sobre

E′

, ser´a a melhor aproxima¸c˜ao para v no sentido de que

k v − v0 k < k v − y k , (1.20)

para qualquer que seja y ∈ E′

, tal que y 6= v0.

Prova: Devemos mostrar que a menor distˆancia de v ao sub-espa¸co E′ ´e a distˆancia entre v e o p´e da

perpendicular tra¸cada da extremidade de v sobre E′

. (A Figura 1.3 ilustra o problema para o caso em

que E = IR3

e E′ = IR2

).

CAP´ITULO 1. CONCEITOS BASICOS ´ 22

v − y

v0 − y

y v0

v − v0

v

❘ ❘

✒✻

Figura 1.4

Como y, v0 ∈ E′

tamb´em v0−y ∈ E′

e ´e portanto ortogonal a v−v0. Assim, obtemos, sucessivamente:

(v − y, v − y) = (v − y + v0 − v0,v − y + v0 − v0)

= (v − v0,v − v0) + 2 (v − v0,v0 − y) + (v0 − y, v0 − y).

Portanto:

k v − y k

2 = k v − v0 k

2 + k v0 − y k

2

. (1.21)

Como, por hip´otese, y 6= v0, conclu´ımos que k v0 − y k > 0. Da´ı, e da igualdade (1.21), obtemos,

finalmente:

k v − y k > k v − v0 k .

Assim, a desigualdade (1.20) mostra que a proje¸c˜ao ortogonal v0 de v sobre E′ ´e tal que a menor

distˆancia de v sobre E′ ´e a distˆancia de v a v0.

Exerc´ıcios

1.23 - Seja x = (1, 7, 10)t um vetor do IR3

em rela¸c˜ao `a base canˆonica. Considere o sub-espa¸co E′

do IR3

, gerado pelos vetores f1 = (1, 1, 0)t

e f2 = (0, 1, 1)t

. Determine a proje¸c˜ao ortogonal de x sobre

E′

.

1.24 - Seja E = C[0, 1], com (f,g) = R 1

0

f(x)g(x)dx. Seja K2(x) o sub-espa¸co dos polinˆomios de grau

≤ 2. O conjunto {Q0(x) = 3, Q1(x) = x−3, Q2(x) = x

2 −x} constitui uma base de K2(x). Determinar

a proje¸c˜ao ortogonal de f(x) = 1

x

4

sobre k2(x).

1.5 Auto-Valores e Auto-Vetores

Nessa se¸c˜ao, investigaremos a teoria de um operador linear T num K-espa¸co vetorial V de dimens˜ao

finita. Tamb´em associaremos um polinˆomio ao operador T: seu polinˆomio caracter´ıstico. Esse polinˆomio

e suas ra´ızes desempenham papel proeminente na investiga¸c˜ao de T. Apresentaremos tamb´em alguns

conceitos que ser˜ao de grande utilidade na obten¸c˜ao de m´etodos para determina¸c˜ao num´erica de autovalores

e auto-vetores de matrizes.

Defini¸c˜ao 1.15 - Uma transforma¸c˜ao linear T de um K-espa¸co vetorial V em um K-espa¸co vetorial

U, T : V → U, ´e uma correspondˆencia que associa a cada vetor x de V um vetor T(x) em U de modo

que:

T(αx + βy) = αT(x) + βT(y) , ∀x, y ∈ V, ∀α, β ∈ K.

CAP´ITULO 1. CONCEITOS BASICOS ´ 23

Em particular, se U = V , ent˜ao dizemos que T ´e um operador linear num K-espa¸co vetorial V .

Defini¸c˜ao 1.16 - Um escalar λ ∈ K ´e um auto-valor de T se existe um vetor n˜ao nulo v ∈ V tal que:

T(v) = λ v .

Todo vetor v satisfazendo essa rela¸c˜ao ´e um auto-vetor de T correspondente ao auto-valor λ.

Observa¸c˜oes:

1. Se λ ´e um auto-valor de T, ent˜ao o operador linear pode apenas variar o m´odulo e o sentido do

vetor, nunca sua dire¸c˜ao.

2. Os termos valor caracter´ıstico e vetor caracter´ıstico (ou valor pr´oprio e vetor pr´oprio) s˜ao frequentemente

usados ao inv´es de auto-valor e auto-vetor.

Daremos a seguir alguns exemplos.

Exemplo 1.18 - Seja I : V → V o operador identidade onde V = IRn. Determinar seus auto-valores e

auto-vetores.

Solu¸c˜ao: Para cada v ∈ V , temos que:

I(v) = v = 1 · v .

Portanto, 1 ´e auto-valor de I e todo vetor n˜ao nulo em V ´e um auto-vetor correspondente ao auto-valor

1.

Exemplo 1.19 - Seja D : V → V o operador diferencial onde V ´e o espa¸co vetorial das fun¸c˜oes diferenci´aveis.

Determinar um auto-valor de D e seu correspondente auto-vetor.

Solu¸c˜ao: Temos que e

kt ∈ V , e, sabemos que:

D

$

e

kt

= k ekt

.

Logo, k ´e um auto-valor de D e e

kt ´e auto-vetor de D correspondente ao auto-valor k.

Exemplo 1.20 - Seja T : IR2 → IR2 o operador linear que gira cada vetor v ∈ IR2 de um ˆangulo ψ.

Determinar os auto-valores e correspondentes auto-vetores nos seguintes casos:

a)ψ = 2nπ , b)ψ = (2n + 1)π , c)ψ =



2n + 1

2



π .

Solu¸c˜ao: Temos que o operador linear que gira cada vetor de um ˆangulo ψ ´e dado por uma matriz

chamada matriz de rota¸c˜ao. No caso em que V = IR2

essa matriz ´e dada por:

T =



cos ψ sen ψ

−sen ψ cosψ 

.

Seja v ∈ IR2

, ent˜ao v = (v1, v2)

t

. Podemos considerar nos trˆes casos n = 1, visto que para valores

maiores de n teremos apenas um n´umero maior de rota¸c˜oes. Assim, para:

a) ψ = 2π, temos:



cos 2π sen 2π

−sen 2π cos 2π

  v1

v2



=



v1

v2



= 1 

v1

v2



,

CAP´ITULO 1. CONCEITOS BASICOS ´ 24

b) ψ = 3π, temos:



cos 3π sen 3π

−sen 3π cos 3π

  v1

v2



=



−v1

−v2



= −1



v1

v2



,

c) ψ =

2

cos 3π

2

sen 3π

2

−sen 3π

2

cos 3π

2

! 

v1

v2



=



−v2

v1



6= λ



v1

v2



.

Logo, os auto-valores de T s˜ao:

1 se ψ = 2nπ , −1 se ψ = (2n + 1)π ,

e em ambos os casos todo vetor n˜ao nulo do IR2 ´e auto-vetor de T. Se ψ = (2n + 1

2

)π, T n˜ao tem

auto-valores e portanto T n˜ao tem auto-vetores. Observe que neste caso o operador linear est´a variando

a dire¸c˜ao do vetor.

Se A ´e uma matriz quadrada n × n sobre K, ent˜ao um auto-valor de A significa um auto-valor de A

encarado como operador em Kn. Isto ´e, λ ∈ K ´e um auto-valor de A se, para algum vetor (coluna) n˜ao

nulo v ∈ Kn,Av = λv. Nesse caso, v ´e um auto-vetor de A correspondente a λ.

Exemplo 1.21 - Seja:

A =



3 4

2 1 

.

Determinar os auto-valores e auto-vetores de A.

Solu¸c˜ao: Procuramos um escalar λ e um vetor n˜ao nulo v = (v1, v2)

t

tais que Av = λv. Assim:



3 4

2 1   v1

v2



= λ



v1

v2



.

A equa¸c˜ao matricial acima ´e equivalente ao sistema homogˆeneo:



3v1 + 4v2 = λv1

2v1 + v2 = λv2

ou 

(3 − λ)v1 + 4v2 = 0

2v1 + (1 − λ)v2 = 0 (1.22)

Para que o sistema homogˆeneo tenha solu¸c˜ao n˜ao nula, o determinante da matriz dos coeficientes deve

ser igual a zero. Logo:

(3 − λ) 4

2 (1 − λ)

= λ

2 − 4λ − 5 = (λ − 5)(λ + 1) = 0 .

Assim, λ ´e um auto-valor de A se e somente se, λ = 5 ou λ = −1.

Fazendo λ = 5 em (1.22), obtemos:



−2v1 + 4v2 = 0

2v1 − 4v2 = 0

ou simplesmente, v1−2v2 = 0 ⇒ v1 = 2v2. Assim v = (v1, v2)

t = (2, 1)t ´e um auto-vetor correspondente

ao auto-valor λ = 5. Qualquer outro auto-vetor correspondente a λ = 5 ´e um m´ultiplo de v.

CAP´ITULO 1. CONCEITOS BASICOS ´ 25

Fazendo λ = −1 em (1.22), obtemos:



4v1 + 4v2 = 0

2v1 + 2v2 = 0

ou simplesmente, v1 + v2 = 0 ⇒ v1 = −v2. Assim v = (v1, v2)

t = (1, −1)t ´e um auto-vetor correspondente

ao auto-valor λ = −1 e novamente, qualquer outro auto-vetor correspondente a λ−1 ´e um m´ultiplo

de v.

Defini¸c˜ao 1.17 - Dada uma matriz quadrada A,n × n, a matriz:

A − λI =



a11 − λ a12 .. . a1n

a21 a22 − λ . .. a2n

.. . . .. . .. .. .

an1 an2 .. . ann − λ

 ,

onde I ´e a matriz identidade de ordem n e λ ´e um parˆametro, ´e chamada matriz caracter´ıstica de A.

Seu determinante , |A−λI|, ´e um polinˆomio de grau n em λ chamado polinˆomio caracter´ıstico de A.

Exemplo 1.22 - Seja A =



1 2

3 4 

. Determinar seu polinˆomio caracter´ıstico.

Solu¸c˜ao: Para calcular o polinˆomio caracter´ıstico de A, basta calcular o determinante de A−λI. Assim:

|A − λI| =

1 − λ 2

3 4 − λ

= λ

2 − 5λ − 2 .

| {z }

polinˆomio caracter´istico.

Exerc´ıcios

1.25 - Prove que os auto-valores de A s˜ao os zeros do polinˆomio caracter´ıstico.

1.26 - Prove que: se λ1, λ2, .. ., λn s˜ao auto-valores de A ent˜ao λ

k

1

, λk

2

, ... , λk

n

s˜ao auto-valores de

Ak

.

Como j´a dissemos anteriomente estudaremos, (no Cap´ıtulo 7), m´etodos num´ericos para determina¸c˜ao

de auto-valores e auto-vetores de matrizes. Tais m´etodos para serem obtidos dependem de alguns conceitos

os quais passamos a discutir agora.

Polinˆomio de Matrizes

Defini¸c˜ao 1.18 Seja:

P(t) = a0 t

n + a1 t

n−1 + .. . + an−1 t + an ,

um polinˆomio de grau n onde os ai

, i = 1, 2,. .. ,n s˜ao reais.

Se A ´e uma matriz quadrada real, ent˜ao definimos:

P(A) = a0 A

n + a1 A

n−1 + .. . + an−1 A + an I ,

como sendo o polinˆomio da matriz A. Na express˜ao acima I ´e a matriz identidade.

Em particular, se P(A) = θ, (matriz nula), dizemos que A ´e um zero de P(t).

CAP´ITULO 1. CONCEITOS BASICOS ´ 26

Exemplo 1.23 - Seja A =



1 2

3 4 

. Calcular P(A) e Q(A), sabendo que: P(t) = 2t

3 − 3t + 7 e

Q(t) = t

2 − 5t − 2.

Solu¸c˜ao: Temos que:

P(A) = 2 

1 2

3 4 3

− 3



1 2

3 4 

+ 7 

1 0

0 1 

=



18 14

21 39 

,

e

Q(A) = 

1 2

3 4 2

− 5



1 2

3 4 

− 2



1 0

0 1 

=



0 0

0 0 

.

Assim, A ´e um zero de Q(t). Note que Q(t) ´e o polinˆomio caracter´ıstico de A.

Teorema 1.8 - (Teorema de Cayley-Hamilton) - Toda matriz ´e um zero do seu polinˆomio caracter´ıstico.

Prova: A prova desse teorema pode ser encontrada em [Barnett, 1990 ].

Transforma¸c˜oes de Similaridades (ou Semelhan¸ca)

Existem m´etodos num´ericos que determinam todos os auto-valores de uma matriz sem determinar a

express˜ao do polinˆomio caracter´ıstico. Tais m´etodos s˜ao obtidos usando-se transforma¸c˜oes de similaridade.

Defini¸c˜ao 1.19 - Uma matriz B ´e similar (ou semelhante) a uma matriz A se ∃ uma matriz C n˜ao

singular tal que:

B = C

−1AC ,

e dizemos que B foi obtida de A por transforma¸c˜ao de semelhan¸ca.

Teorema 1.9 - Sejam A e B matrizes similares. Ent˜ao:

i) A e B possuem os mesmos auto-valores.

ii) Se v ´e auto-vetor de A associado a λ, ent˜ao C

−1v ´e auto-vetor de B = C

−1AC associado a λ.

Prova: Seja B = C

−1AC, e suponha que λ ´e auto-valor de A e v seu correspondente auto-vetor. Temos

ent˜ao, que det(A − λI) ´e o polinˆomio caracter´ıstico de A.

i) Temos :

det(B − λI) = det(C

−1AC − λI)

= det(C

−1

(A − λI)C)

= detC−1

det(A − λI)detC

= det(A − λI)det(C

−1C | {z }

=I

) = det(A − λI) .

Portanto A e B possuem o mesmo polinˆomio caracter´ıstico. Logo λ ´e auto-valor de B.

ii) Agora Av = λv e desde que B = C

−1AC ⇒ A = CBC−1

. Portanto CBC−1v = λv. Assim:

BC−1

v = C

−1λv = λC−1

v .

Portanto B(C

−1v) = λ(C

−1v). Logo C

−1v ´e auto-vetor de B associado ao auto-valor λ.

CAP´ITULO 1. CONCEITOS BASICOS ´ 27

Lema 1.1 - Seja A uma matriz de ordem n com auto-valores λi e correspondentes auto-vetores vi, os

quais vamos supor sejam linearmente independentes, e seja

D =



λ1

λ2

λ3

.

.

.

λn



.

Ent˜ao D = V

−1AV se e somente a i-´esima coluna de V ´e vi.

Prova: Se a i-´esima coluna de V ´e denotada por vi ent˜ao a i-´esima coluna de AV e V D s˜ao, Avi e

λivi

, respectivamente. Portanto os vetores vi s˜ao os auto-vetores de A se e somente se AV = V D. Esta

equa¸c˜ao pode ser rearranjada como: V

−1AV desde que V seja invers´ıvel, e este ´e o caso pois as colunas

de V s˜ao linearmente independentes.

Matriz de Rota¸c˜ao e Matriz Ortogonal

Alguns m´etodos num´ericos s˜ao obtidos usando-se matrizes que possuem caracter´ısticas especiais. Assim,

passamos a descrever tais matrizes.

No IR2 as matrizes:



cos ϕ sen ϕ

−sen ϕ cos ϕ 

,



cos ϕ −sen ϕ

sen ϕ cos ϕ 

,

rotacionam cada vetor do IR2

, no sentido hor´ario e anti-hor´ario, respectivamente, de um ˆangulo ϕ, e

porisso s˜ao chamadas de Matrizes de Rota¸c˜ao.

No IR3 a matriz:

cos ϕ 0 sen ϕ

0 1 0

−sen ϕ 0 cos ϕ

 ,

´e uma matriz de rota¸c˜ao, no sentido hor´ario, de um ˆangulo ϕ no plano x, z.

No IRn a matriz:

U =



1

.

.

.

1

cos ϕ 0 .. . 0 sen ϕ

1

.

.

.

.

.

.

1

−sen ϕ 0 .. . 0 cos ϕ

.

.

.

1



(1.23)

onde:





upp = uqq = cosϕ

upg = −uqp = senϕ

uij = 1,i 6= p, i 6= q

uij = 0, no resto

CAP´ITULO 1. CONCEITOS BASICOS ´ 28

´e uma matriz de rota¸c˜ao de um ˆangulo ϕ no plano dos eixos p e q.

Uma Matriz Ortogonal U ´e caracterizada por:

U

tU = UUt = I ,

onde I: matriz identidade. Portanto U

t = U

−1

.

Observe que matrizes de rota¸c˜ao s˜ao matrizes ortogonais.

Propriedades de Matrizes Ortogonais

1) As linhas de U satisfazem:

Xn

j=1

(uij )

2 = 1 (produto de uma linha por ela mesma) ,

Xn

j=1

i6=k

uij ukj = 0 (produto de duas linhas distintas) .

2) ||Ux|| = ||x||, ∀x ∈ IRn.

3) A transforma¸c˜ao ortogonal n˜ao muda os ˆangulos entre dois vetores. Portanto uma transforma¸c˜ao

ortogonal ou ´e uma rota¸c˜ao ou ´e uma reflex˜ao.

4) Os auto-valores s˜ao: 1 ou -1.

5) O determinante ´e 1 ou -1.

Para finalizar essa se¸c˜ao daremos um teorema que nos permite ter uma id´eia da localiza¸c˜ao dos autovalores

de uma matriz, seja ela sim´etrica ou n˜ao. Os auto-valores de matrizes n˜ao sim´etricas podem, ´e

l´ogico, serem complexos, e nestes casos o teorema fornece a localiza¸c˜ao destes n´umeros no plano complexo.

Existem situa¸c˜oes onde n˜ao ´e necess´ario obter os auto-valores com muita precis˜ao, isto ´e, existem ocasi˜oes

onde o que desejamos ´e saber se os auto-valores s˜ao positivos ou ent˜ao se est˜ao contidos no c´ırculo

unit´ario. O Teorema a seguir pode ser usado para responder a estas perguntas sem a necessidade de

c´alculos detalhados.

Teorema 1.10 - Teoremas de Gerschgorin

a) Primeiro Teorema de Gerschgorin - Os auto-valores de uma matriz A = (aij ) est˜ao na reuni˜ao dos

c´ırculos de centro aii e raio

ri =

Xn

j=1

j6=i

|aij | , i = 1, 2,. .. ,n ,

no plano complexo.

b) Segundo Teorema de Gerschgorin - Se a uni˜ao de q desses c´ırculos formam uma regi˜ao conectada,

isolada dos c´ırculos restantes, ent˜ao existe q auto-valores nessa regi˜ao.

Prova: A prova deste teorema pode ser encontrada em [Wilkison, 1965].

CAP´ITULO 1. CONCEITOS BASICOS ´ 29

Exemplo 1.24 - Localizar, usando o teorema de Gerschgorin, os auto-valores de:

A =

4 −1 1

1 1 1

−2 0 −6

 , B =

3 1 0

1 2 −1

0 −1 0

 .

Solu¸c˜ao: Os c´ırculos de Gerschgorin associados com a matriz A s˜ao dados por:

C´ırculo Centro Raio

C1 a11 = 4 r1 = | − 1| + |1| = 2

C2 a22 = 1 r2 = |1| + |1| = 2

C3 a33 = −6 r3 = | − 2| + |0| = 2

Assim para a matriz A, obtemos os c´ırculos ilustrados na Figura 1.5:

C3 C2 C1

2 ✒

■❅ 2

2 ✒

4

eixo

imagin´ario

−6 1 eixo

real

Figura 1.5

O primeiro teorema de Gerschgorin indica que os auto-valores de A est˜ao inseridos nas regi˜oes hachuradas

da Figura 1.5. Al´em disso, desde que C1

S

C2 n˜ao intercepta C3, pelo segundo teorema de

Gerschgorin, dois desses auto-valores est˜ao em C1

S

C2 e os restantes dos auto-valores em C3.

Para a matriz B, temos que os c´ırculos de Gerschgorin associados com essa matriz, s˜ao dados por:

C´ırculo Centro Raio

C1 b11 = 3 r1 = |1| + |0| = 1

C2 b22 = 2 r2 = |1| + | − 1| = 2

C3 b33 = 0 r3 = |0| + | − 1| = 1

os quais est˜ao ilustrados na Figura 1.6.

0

C3

C2

C1

1

2

1 ❅❅

■ ❅

■❅

❅❅

2 3

Figura 1.6

Podemos afirmar neste caso, usando os teoremas de Gerschgorin, que os auto-valores da matriz B

est˜ao no intervalo [−1, 4], pois a matriz ´e real e sim´etrica.

CAP´ITULO 1. CONCEITOS BASICOS ´ 30

Exerc´ıcios

1.27 - Dada as seguintes matrizes:

A =



1 2

3 4 

, B =

1 2 −1

−1 0 1

2 1 −1

 ,

calcule o polinˆomio caracter´ıstico, seus auto-valores e auto-vetores.

1.28 - Seja A =



1 2

3 2 

. Calcule os auto-valores de A,A2

,A3

.

1.29 - Seja A =



1 2

2 −1



. Calcular P(A) e Q(A), sabendo que: P(t) = 2t

2 − 3t + 7 e

Q(t) = t

2 − 5.

1.6 Exerc´ıcios Complementares

1.30 - Se x = (1, 2, 3, 4)t

e y = (0, 3, −2, 1)t

, calcule:

a) (x,y) (usando defini¸c˜ao usual de produto escalar),

b) k x k e k y k,

1.31 - Mostre que num espa¸co euclidiano vale o Teorema de Pit´agoras, isto ´e:

x ⊥ y =⇒ k x + y k

2 = k x k

2 + k y k

2

.

1.32 - Mostre que num espa¸co euclidiano, vale:

| k x k − k y k | ≤ k x − y k .

1.33 - Sejam x = (x1, x2)

t

e y = (y1,y2)

t

vetores do IR2

.

a) Prove que:

(x, y) = x1 y1 − 2 x1 y2 − 2 x2 y1 + 5 x2 y2 ,

define um produto escalar no IR2

. .

b) Determine a norma de x = (1, 2)t ∈ IR2

, em rela¸c˜ao ao produto escalar do item a).

1.34 - Os vetores {(1, 1, 0)t

,(0, 1, 1)t

,(1, 0, 1)t} constituem uma base n˜ao ortonormal do IR3

.

Construir a partir desses vetores, uma base ortonormal para o IR3

, usando o processo de Gram-Schmidt.

1.35 - Obter, no intervalo [0, 1], uma sequˆencia ortonormal de polinˆomios, relativamente ao produto

escalar.:

(f,g) = Z 1

0

f(x) g(x) dx .

1.36 - Considere o espa¸co dos polinˆomios de grau ≤ 2 com o produto escalar:

(Pi

,Pj ) = Z 1

0

Pi(t) Pj (t) dt .

Dada nesse espa¸co a base {3, t − 3, t2 − t}, obtenha a partir dela uma base ortogonal, usando o

processo de Gram-Schmidt.

CAP´ITULO 1. CONCEITOS BASICOS ´ 31

1.37 - Sejam e1, e2, e3 a base canˆonica do IR3

, e seja v = (1, 1, 2)t

. Determinar a proje¸c˜ao ortogonal

de v sobre o plano {e1, e2}.

1.38 - Seja E = C[1, 2], com (f,g) = R 2

1

f(x)g(x)dx. Seja K1(x) o sub-espa¸co dos polinˆomios de grau

≤ 1. O conjunto {1, x} constitui uma base de K1(x). Determinar a proje¸c˜ao ortogonal de f(x) = e

x

sobre k1(x).

1.39 - Resolva o exerc´ıcio 1.24, usando para o sub-espa¸co a base ortogonal obtida no exerc´ıcio 1.36.

Compare os resultados.

1.40 - Para cada uma das matrizes:

A =



−2 5

1 −3



, A =

1 4 3

0 3 1

0 2 −1

 ,

encontre um polinˆomio que tenha a matriz como raiz.

1.41 - Seja A uma matriz quadrada de ordem n e sejam λ1,λ2, · · · ,λn seus auto-valores. Quais s˜ao

os auto-valores de A − qI onde q ´e uma constante e I ´e a matriz identidade?

1.42 - Mostre que se v ´e auto-vetor de A e de B ent˜ao v ´e auto-vetor de αA + βB, onde α, β s˜ao

escalares quaisquer.

1.43 - Mostre que uma matriz A e sua transposta At possuem o mesmo polinˆomio caracter´ıstico.

1.44 - Usando o Teorema 1.10, localizar os auto-valores das seguintes matrizes:

A =

2 −1 0

−1 2 −1

0 −1 1

 , B =

4 0 1

−2 1 0

−2 0 1

 .

...

Baixar como  txt (58.8 Kb)  
Continuar por mais 38 páginas »