Introdução ATPS Calculo Numerico
Ensaios: Introdução ATPS Calculo Numerico. Pesquise 862.000+ trabalhos acadêmicosPor: • 28/3/2015 • 9.550 Palavras (39 Páginas) • 277 Visualizações
Cap´ıtulo 1
Conceitos B´asicos
1.1 Introdu¸c˜ao
Pretendemos neste cap´ıtulo relembrar alguns conceitos b´asicos, que ir˜ao facilitar a compreens˜ao dos
m´etodos num´ericos apresentados nos pr´oximos cap´ıtulos. A maioria dos conceitos aqui apresentados s˜ao
de ´algebra linear e isso se deve ao fato de que os resultados da ´algebra linear, em geral, e da teoria
dos espa¸cos vetoriais, em particular, na an´alise num´erica ´e t˜ao grande, que estudo pormenorizado desses
assuntos cada vez mais se justifica. Assim maiores detalhes sobre os assuntos aqui abordados podem ser
encontrados em livros de ´algebra linear.
Para iniciar vamos examinar dois conjuntos que certamente j´a s˜ao conhecidos do leitor. O primeiro ´e
o conjunto dos vetores da geometria, definidos atrav´es de segmentos orientados, e o outro ´e o conjunto
das matrizes reais m × n.
A primeira vista pode parecer que tais conjuntos n˜ao possuem nada em ` comum. Mas n˜ao ´e bem assim
conforme mostraremos a seguir.
No conjunto dos vetores est´a definida uma adi¸c˜ao dotada das propriedades comutativa, associativa,
al´em da existˆencia do elemento neutro (vetor nulo) e do oposto.
Al´em disso, podemos multiplicar um vetor por um n´umero real. Essa multiplica¸c˜ao tem as seguintes
propriedades (j´a certamente vista por vocˆe no seu curso):
α(u + v) = αu + αv ,
(α + β)u = αu + βu ,
(αβ)u = (αβu) ,
1 · u = u ,
onde u, v s˜ao vetores e α, β s˜ao escalares quaisquer.
No conjunto das matrizes tamb´em est´a definida uma adi¸c˜ao dotada tamb´em das propriedades associativa,
comutativa, admite elemento neutro, a matriz nula, e toda matriz tem uma oposta.
Como vemos o comportamento do conjunto dos vetores e o das matrizes quanto `a adi¸c˜ao ´e o mesmo.
Mas n˜ao param por a´ı as coincidˆencias.
Pode-se tamb´em multiplicar uma matriz por um n´umero real. Essa multiplica¸c˜ao apresenta as mesmas
propriedades que as destacadas para o caso de vetor, ou seja, valem as seguintes igualdades:
α(A + B) = αA + αB ,
(α + β)A = αA + βA ,
(αβ)A = (αβA) ,
1 · A = A ,
1
CAP´ITULO 1. CONCEITOS BASICOS ´ 2
onde A, B s˜ao matrizes e α, β s˜ao escalares quaisquer.
Logo o conjunto dos vetores e o das matrizes apresentam uma certa coincidˆencia estrutural no que
se refere a um par importante de opera¸c˜oes definidas sobre eles. Nada ent˜ao mais l´ogico que estudar
simultaneamente o conjunto dos vetores, das matrizes e todos os conjuntos que apresentem a mesma
estrutura acima apontada.
1.2 Espa¸co Vetorial
Seja E um conjunto e seja K um corpo. Suponhamos que em E esteja definida uma opera¸c˜ao de
adi¸c˜ao:
(x,y) ∈ E × E → x + y ∈ E ,
e que esteja definida uma opera¸c˜ao entre os elementos de K e os elementos de E (chamada multiplica¸c˜ao
por escalar):
(α, x) ∈ K × E → αx ∈ E .
Ent˜ao E ´e um K-espa¸co vetorial, em rela¸c˜ao a essas opera¸c˜oes, se as seguintes condi¸c˜oes estiverem
satisfeitas:
A1) (x + y) + z = x + (y + z), ∀x, y,z ∈ E ,
A2) x + y = y + x, ∀x, y ∈ E ,
A3) ∃ 0(zero) ∈ E / x + 0 = x, ∀x ∈ E ,
A4) ∀x ∈ E, ∃ − x ∈ E / x + (−x) = 0 ,
M1) α(x + y) = αx + αy, ∀α ∈ K, ∀x,y ∈ E ,
M2) (α + β)x = αx + βx, ∀α, β ∈ K, ∀x, y ∈ E ,
M3) (αβ)x = (αβx), ∀ α, β ∈ K, ∀x ∈ E ,
M4) 1 · x = x, ∀ x ∈ E .
O leitor dever´a lembrar-se sempre de que, na defini¸c˜ao acima, n˜ao se especifica nem a natureza dos
vetores nem das opera¸c˜oes. Assim qualquer conjunto que satisfa¸ca as oito condi¸c˜oes acima especificada
ser´a um espa¸co vetorial.
Defini¸c˜ao 1.1 - Seja E um K-espa¸co vetorial. Os vetores v1,v2,. .. ,vk ∈ E s˜ao linearmente dependentes
sobre K, se existem escalares α1,α2,. .. ,αk ∈ K, nem todos nulos, tais que:
α1 v1 + α2 v2 + .. . + αk vk = 0 .
Observamos que essa rela¸c˜ao ´e sempre v´alida se os αi
, i = 1, 2,. .. ,k s˜ao todos iguais a zero. Nesse
caso dizemos que os vetores s˜ao linearmente independentes.
Defini¸c˜ao 1.2 - Um K-espa¸co vetorial tem dimens˜ao n se:
a) existem n vetores linearmente independentes;
b) (n + 1) vetores s˜ao sempre linearmente dependentes.
Defini¸c˜ao 1.3 - Qualquer conjunto de n vetores linearmente independentes ´e chamado base de um
K-espa¸co vetorial de dimens˜ao n.
Assim, qualquer vetor do espa¸co pode ser representado como combina¸c˜ao linear dos vetores da base.
Mudan¸ca de Base
CAP´ITULO 1. CONCEITOS BASICOS ´ 3
Estudaremos inicialmente mudan¸ca de base em um espa¸co vetorial bi-dimensional, e a seguir, em um
espa¸co de dimens˜ao n.
a) Seja E = IR2
. Sejam B1 = {e1,e2} uma base de E e v ∈ E, como mostrados na Figura 1.1.
a22
v2
a21
v
′
2
e2
v
v
′
1
e
′
1
a12 e1 v1 a11
e
′
2
❑
✯
✒
✻
✻
✲ ✲
Figura 1.1
Ent˜ao v se exprime de maneira ´unica como combina¸c˜ao linear dos elementos de B1, isto ´e, existem
escalares v1,v2 (elementos de K) tais que:
v = v1 e1 + v2 e2 , (1.1)
(onde os escalares v1,v2 s˜ao as coordenadas de v na base B1).
Seja B′
1 = {e
′
1
,e′
2}, como mostrado na Figura 1.1, uma outra base de E. Analogamente, podemos
escrever:
v = v
′
1
e
′
1 + v
′
2
e
′
2
. (1.2)
Desejamos saber como, dadas as coordenadas de v na base B1 (aqui denominada base antiga),
poderemos determinar as coordenadas de v na base B′
1
(aqui denominada base nova). Sendo e
′
1
,e′
2
elementos de E podemos, em particular, escrever cada um deles como combina¸c˜ao linear dos elementos
da base B1. Assim:
e
′
1 = a11 e1 + a21 e2 ,
e
′
2 = a12 e1 + a22 e2 .
(1.3)
isto ´e, cada vetor da base nova se exprime de maneira ´unica como combina¸c˜ao linear dos vetores da base
antiga.
Assim, em virtude de (1.1), (1.2) e (1.3) temos:
v = v1 e1 + v2 e2 = v
′
1
e
′
1 + v
′
2
e
′
2
= v
′
1
(a11 e1 + a21 e2) + v
′
2
(a12 e1 + a22 e2)
= (v
′
1 a11 + v
′
2 a12) e1 + (v
′
1 a21 + v
′
2 a22) e2 .
Como as coordenadas de um vetor em rela¸c˜ao a uma determinada base s˜ao ´unicas, podemos igualar
os coeficientes. Assim, obtemos o sistema linear:
v1 = v
′
1 a11 + v
′
2 a12
v2 = v
′
1 a21 + v
′
2 a22
CAP´ITULO 1. CONCEITOS BASICOS ´ 4
ou na forma matricial:
v1
v2
=
a11 a12
a21 a22 v
′
1
v
′
2
, (1.4)
ou ainda:
v = A v′
. (1.5)
O sistema (1.4), possui sempre uma e uma s´o solu¸c˜ao v
′
1
,v′
2
, pelo fato de B1 e B′
1
serem bases de E.
Ent˜ao, conhecidas, na base antiga, as coordenadas v1,v2 de v e as coordenadas de cada um dos vetores
e
′
1
,e′
2
, na base antiga, podemos determinar as coordenadas v
′
1
,v′
2 de v na base nova usando (1.4).
Sendo A n˜ao singular, (det(A) 6= 0), existe a inversa A−1 de A. Assim, pr´e-multiplicando (1.5) por
A−1
, obtemos:
v
′ = A
−1
v . (1.6)
A equa¸c˜ao matricial (1.6) mostra como calcular as coordenadas de v na base antiga quando conhecidas
as coordenadas de v na base nova.
Exemplo 1.1 - Seja v = (2, 4)t na base {(1, 2)t
,(2, 3)t}. Calcular as coordenadas de v na base {(1, 3)t
,(1, 4)t}.
Solu¸c˜ao: De (1.3), temos:
(1, 3)t = a11 (1, 2)t + a21 (2, 3)t
,
(1, 4)t = a12 (1, 2)t + a22 (2, 3)t
.
Da primeira equa¸c˜ao, obtemos o sistema:
a11 + 2 a21 = 1
2 a11 + 3 a21 = 3
cuja solu¸c˜ao ´e: a11 = 3, a21 = −1. De maneira an´aloga, da segunda equa¸c˜ao, obtemos:
a12 + 2 a22 = 1
2 a12 + 3 a22 = 4
cuja solu¸c˜ao ´e: a12 = 5, a22 = −2. Substituindo os valores conhecidos em (1.4), segue que:
2
4
=
3 5
−1 −2
v
′
1
v
′
2
.
cuja solu¸c˜ao ´e: v
′
1 = 24, v′
2 = −14. Assim, v = (24, −14)t na base {(1, 3)t
,(1, 4)t}.
Veremos agora, mudan¸ca de base em um K-espa¸co vetorial E de dimens˜ao n.
b) Seja E = IRn. Sejam {e1,e2,. .. ,en}, {e
′
1
,e′
2
,. .. ,e′
n} bases de E e v ∈ E. Ent˜ao, podemos
escrever:
v =
Xn
i=1
viei =
Xn
j=1
v
′
j
e
′
j
.
Mas e
′
1
,e′
2
,. .. ,e′
n
s˜ao elementos de E, e portanto podem ser expressos em rela¸c˜ao a base {e1,e2,. .. ,en}.
Logo:
e
′
j =
Xn
i=1
aij ei
, j = 1, 2,. .. ,n .
CAP´ITULO 1. CONCEITOS BASICOS ´ 5
Ent˜ao temos:
v =
Xn
i=1
vi ei =
Xn
j=1
v
′
j
e
′
j
=
Xn
j=1
v
′
j
Xn
i=1
aij ei
!
=
Xn
i=1
Xn
j=1
aij v
′
j
ei
, ⇒ vi =
Xn
j=1
aijv
′
j
.
Assim, na forma matricial, podemos escrever:
v1
v2
.
.
.
vn
=
a11 a12 .. . a1n
a21 a22 .. . a2n
.
.
.
.
.
.
.
.
.
an1 an2 .. . ann
v
′
1
v
′
2
.
.
.
v
′
n
.
ou
v = A v′
e v
′ = A
−1
v .
Exerc´ıcios
1.1 - Seja v = (2, 3, 4)t na base canˆonica, isto ´e, na base:
{(1, 0, 0)t
, (0, 1, 0)t
, (0, 0, 1)t} .
Calcular as coordenadas de v na base:
{(1, 1, 1)t
, (1, 1, 0)t
, (1, 0, 0)t} .
1.2 - Seja v = 3 b1 + 4 b2 + 2 b3, onde:
b1 = (1, 1, 0)t
, b2 = (−1, 1, 0)t
, b3 = (0, 1, 1)t
.
Calcular as coordenadas de v na base:
f1 = (1, 1, 1)t
, f2 = (1, 1, 0)t
, f3 = (1, 0, 0)t
.
1.3 - Seja Kn(x) = {Pr(x) / r ≤ n} o espa¸co vetorial de todos os polinˆomios de grau ≤ n. A base
canˆonica para o espa¸co dos polinˆomios ´e {1, x, x2
, . ..}. Seja P3 = 3 + 4 x
2 + 2 x
3
e B1 =
{5, x − 1, x2 − 5 x + 3, x3 − 4} uma outra base. Calcular as coordenadas de P3 em rela¸c˜ao `a base B1.
1.4 - Sejam B1 = {5, x − 1, x2 − 3 x} e B2 = {8, 3 x + 2, 5 x
2 − 3 x} bases de K2(x). Seja
P2(x) = 8{5} + 4{x − 1} + 3{x
2 − 3x}. Calcular as coordenadas de P2(x) em rela¸c˜ao `a base B2.
1.5 - Dado o polinˆomio P3(x) = 20 x
3 + 8 x
2 − 14 x + 28 exprim´ı-lo como combina¸c˜ao linear dos
polinˆomios da sequˆencia:
Q3(x) = 5 x
3 − 7 x + 12,
Q2(x) = −4 x
2 + 8 x,
Q1(x) = 6 x − 1,
Q0(x) = 5.
Espa¸co Vetorial Euclidiano
Vamos definir aqui importantes no¸c˜oes de produto escalar e de ortogonalidade, visando introduzir,
entre outras coisas o conceito de comprimento e distˆancia.
Produto Escalar
Seja E um espa¸co vetorial real. Sejam x, y elementos de E.
CAP´ITULO 1. CONCEITOS BASICOS ´ 6
Defini¸c˜ao 1.4 - Chama-se produto escalar (ou produto interno) de x por y, em s´ımbolo, (x,y),
qualquer fun¸c˜ao definida em E × E com valores em IR satisfazendo as seguintes propriedades:
P1) (x,y) = (y, x), ∀x,y ∈ E ,
P2) (x + y, z) = (x,z) + (y, z), ∀x,y, z ∈ E ,
P3) (λx,y) = λ(x, y), ∀λ ∈ IR, ∀x,y ∈ E ,
P4) (x,x) ≥ 0 e (x,x) = 0 se e somente se x = θ(nulo).
Um espa¸co vetorial real E, onde est´a definido um produto escalar ´e chamado espa¸co euclidiano real.
Daremos a seguir alguns exemplos de produto escalar.
Exemplo 1.2 - Seja E = IR2
. Sejam x = (x1,x2)
t
; y = (y1,y2)
t
. Mostrar que, definindo:
(x, y) = x1 y1 + x2 y2 . (1.7)
o IR2
torna-se um espa¸co euclidiano real.
Solu¸c˜ao: Devemos mostrar que as condi¸c˜oes P1,P2,P3 e P4 est˜ao satisfeitas, isto ´e, que (1.7) ´e um
produto escalar bem definido no IR2
. De fato:
P1) (x, y) = x1y1 + x2y2 = y1x1 + y2x2 = (y, x).
P2) (x + y, z) = (x1 + y1)z1 + (x2 + y2)z2 = x1z1 + y1z1 + x2z2 + y2z2
= (x1z1 + x2z2) + (y1z1 + y2z2) = (x,z) + (y, z).
P3) (λ x, y) = λx1y1 + λx2y2 = λ(x1y1 + x2y2) = λ(x,y).
P4) (x, x) = x
2
1 + x
2
2 ≥ 0 (evidente).
(x, x) = x
2
1 + x
2
2 = 0 ⇔ x
2
i = 0 ⇔ xi = 0, ∀i ⇔ x = θ.
Logo, (1.7) ´e uma boa defini¸c˜ao de produto escalar.
Nos pr´oximos exemplos, a verifica¸c˜ao de que as condi¸c˜oes P1,P2,P3 e P4 s˜ao satisfeitas, fica como
exerc´ıcio.
Exemplo 1.3 - Seja E = IRn. Para x, y ∈ E, isto ´e, x = (x1, x2, . .., xn)
t
, e y = (y1, y2, . .., yn)
t
,
definimos:
(x,y) = Xn
i=1
xi yi
, (1.8)
como um produto escalar no IRn. (1.8) ´e chamado de produto escalar usual no IRn. Tamb´em,
(x, y) = Xn
i=1
wi xi yi
, (1.9)
com wi fixados e positivos, define no IRn um produto escalar.
Assim, tanto (1.8) como (1.9) transformam o IRn num espa¸co euclidiano real.
Exemplo 1.4 - Seja E = C[a,b] o espa¸co vetorial das fun¸c˜oes cont´ınuas reais definidas sobre o intervalo
limitado fechado [a,b]. Se para f,g ∈ C[a,b] definimos:
(f,g) = Z b
a
f(x) g(x)dx, (1.10)
tal espa¸co torna-se um espa¸co euclidiano real. (1.10) ´e chamado de produto escalar usual em C[a,b].
CAP´ITULO 1. CONCEITOS BASICOS ´ 7
Em particular, se f(x) = Pk(x) e g(x) = Pj (x), com k, j ≤ n, s˜ao polinˆomios de grau ≤ n, a
equa¸c˜ao (1.10) define um produto escalar em Kn = {Pr(x) / r ≤ n}, (espa¸co vetorial dos polinˆomios de
grau ≤ n).
Exemplo 1.5 - Seja E = Kn(x) = {Pr(x) / r ≤ n}. Sejam a ≤ x0 < x1 < .. . < xm ≤ b, m + 1 pontos
distintos, com m ≥ n. Definimos:
(Pi(x),Pj (x)) = Xm
k=0
Pi (xk) Pj (xk). (1.11)
como um produto escalar Kn.
Esse ´ultimo exemplo mostra uma outra maneira de se transformar Kn(x) num espa¸co euclidiano real,
maneira esta que ser´a ´util em problemas de aproxima¸c˜ao de fun¸c˜oes pelo m´etodo dos m´ınimos quadrados,
no caso discreto.
Ortogonalidade
Seja E um espa¸co euclidiano real. Sejam x,y elementos de E.
Defini¸c˜ao 1.5 - Dizemos que x ´e ortogonal a y, em s´ımbolo, x ⊥ y, se e somente se (x, y) = 0.
Observe que (x,θ) = (θ, x) = 0 qualquer que seja x, onde θ ´e o vetor nulo.
Exemplo 1.6 - No espa¸co E = C[−π,π], com (f,g) = R π
−π
f(x) g(x) dx, verificar se sen x e cos x s˜ao
ortogonais.
Solu¸c˜ao: Temos:
(sen x, cos x) = Z π
−π
sen x cos x dx =
sen2 x
2
π
−π
= 0 .
Assim, sen x e cos x s˜ao ortogonais em E.
Exemplo 1.7 - Em E = IR3
, com o produto escalar usual, verificar se os vetores: f1 =
√
1
3
, √
1
3
, √
1
3
t
e f2 =
√
1
2
, − √
1
2
, 0
t
s˜ao ortogonais.
Solu¸c˜ao: Temos:
(f1,f2) = 1
√
3
×
1
√
2
+
1
√
3
×
−
1
√
2
+
1
√
3
× 0
=
1
√
6
−
1
√
6
+ 0 = 0.
Logo, f1 e f2 s˜ao ortogonais em E.
Teorema 1.1 - Os vetores v1,v2,. .. ,vm tais que:
a) vi 6= θ, i = 1, 2,. .. ,m ;
b) (vi
,vj ) = 0, para i 6= j;
s˜ao sempre linearmente independentes.
CAP´ITULO 1. CONCEITOS BASICOS ´ 8
Dito de outro modo:os vetores n˜ao nulos v1,v2,. .. ,vm, dois a dois ortogonais, s˜ao sempre linearmente
independentes.
Prova: Devemos provar que:
α1v1 + α2v2 + .. . + αmvm = 0 (1.12)
⇒ α1 = α2 = .. . = αm = 0.
Em virtude de (1.12) podemos escrever, sucessivamente, para cada i = 1, 2,. .. ,m:
(vi
, α1v1 + α2v2 + .. . + αivi + .. . + αmvm) = (vi
, 0) = 0,
ou seja:
α1 (vi
,v1) + α2 (viv2) + .. . + αi (vi
,vi) + .. . + αm (vi
,vm) = 0.
onde aplicamos P2 e P3. Mas (vi
,vj ) = 0 , i 6= j. Da´ı, a igualdade acima se reduz a:
αi (vi
,vi) = 0.
Mas sendo vi 6= θ, temos, usando P4, que (vi
,vi) 6= 0, para i = 1, 2,. .. ,m. Portanto, da ´ultima
igualdade conclu´ımos que,
αi = 0, i = 1, 2,. .. ,m.
Logo, os vetores v1,v2,. .. ,vm s˜ao linearmente independentes.
Defini¸c˜ao 1.6 - Seja E um espa¸co euclidiano de dimens˜ao n. Se f1,f2,. .. ,fn s˜ao dois a dois ortogonais,
ou seja, se (fi
,fj ) = 0, i 6= j, eles constituem uma base de E, que ser´a chamada de base ortogonal.
Teorema 1.2 - A condi¸c˜ao necess´aria e suficiente para que um vetor v ∈ E seja ortogonal a um subespa¸co
E′ ⊂ E ´e que v seja ortogonal a cada vetor e1,e2,. .. ,en de uma base de E′
.
Prova: A condi¸c˜ao ´e evidentemente necess´aria. Provemos a suficiˆencia. Seja x um vetor qualquer de
E′
. Temos ent˜ao:
x = α1 e1 + α2 e2 + .. . + αn en,
desde que e1,e2,. .. ,en ´e uma base de E′
. Devemos mostrar que v ⊥ x. Assim:
(v,x) = (v, α1 e1 + α2 e2 + .. . + αn en)
= α1 (v,e1) + α2 (v,e2) + .. . + αn (v,en) = 0,
desde que por hip´otese, v ⊥ {e1,e2,. .. ,en}. Logo v ´e ortogonal a E′
.
Teorema 1.3 - Num espa¸co euclidiano real E quaisquer que sejam x, y ∈ E, temos:
(x, y)
2 ≤ (x, x) (y, y), (1.13)
com igualdade v´alida se e somente se x e y s˜ao linearmente dependentes.
A desigualdade (1.13) ´e chamada desigualdade de Schwarz.
Prova: Tomemos o vetor v = x + λ y, onde λ ´e um n´umero real qualquer. De P4, resulta:
(x + λ y,x + λ y) ≥ 0 ,
e usando P2 e P3, obtemos:
λ
2
(y, y) + 2λ(x, y) + (x,x) ≥ 0 .
CAP´ITULO 1. CONCEITOS BASICOS ´ 9
Para que o trinˆomio seja sempre ≥ 0 ´e necess´ario que ∆ ≤ 0. Assim:
∆ = 4(x,y)
2 − 4(x,x)(y, y) ≤ 0,
⇒ (x, y)
2 ≤ (x, x)(y, y).
Mostremos agora que a igualdade ´e v´alida se e somente se x e y s˜ao linearmente dependentes. Seja
x = λ y. Ent˜ao:
(x, y)
2 = (λy, y)
2 = [λ(y, y)]2 = λ
2
(y, y)
2
= λ
2
(y, y)(y, y) = (λy, λy)(y, y) = (x, x)(y, y).
Isto ´e, x e y linearmente dependentes =⇒ (x, y)
2 = (x,x)(y, y).
Suponhamos, agora que a igualdade seja v´alida em (1.13). O caso y = θ ´e trivial. Suponhamos y 6= θ.
Temos que (x,y)
2 = (x,x)(y, y) ´e equivalente a:
(x + λ y,x + λ y) = 0 com λ = −
(x,y)
(y, y)
.
Assim, de P4, conclu´ımos que x + λ y = 0. Ou seja x =
(x,y)
(y, y)
y, e isto quer dizer que x e y s˜ao
linearmente dependentes.
Exerc´ıcios
1.6 - Em rela¸c˜ao ao produto escalar usual do IR3
, calcule (x,y) nos seguintes casos:
a) x = (1/2, 2, 1)t
, y = (4, 1, −3)t
;
b) x = (2, 1, 0)t
, y = (4, 0, 2)t
;
1.7 - Determinar (f,g) = R 1
0
f(t)g(t)dt para cada um dos seguintes pares de vetores de K2(t).
a) f(t) = t , g(t) = 1 − t
2
;
b) f(t) = t −
1
2
, g(t) = 1
2
−
t −
1
2
;
1.8 - Sejam x = (x1,x2)
t
e y = (y1,y2)
t dois vetores quaisquer do IR2
. Mostre que:
(x, y) = x1x2
a
2
+
y1y2
b
2
,
com a,b ∈ IR fixos e n˜ao nulos define um produto escalar sobre o IR2
.
1.9 - Considere no espa¸co vetorial IR2 o produto escalar dado por: (x,y) = x1y1 + 2x2y2, para todo
par de vetores x = (x1,x2)
t
e y = (y1,y2)
t
. Verificar se x e y s˜ao ortogonais em rela¸c˜ao a esse produto
escalar nos seguintes casos:
a) x = (1, 1)t
e y = (2, −1)t
;
b) x = (2, 1)t
e y = (−1, 1)t
;
b) x = (3, 2)t
e y = (2, −1)t
;
CAP´ITULO 1. CONCEITOS BASICOS ´ 10
1.10 - Determine m de modo que sejam ortogonais os vetores x = (m + 1, 2)t
e y = (−1, 4)t
em
rela¸c˜ao ao produto escalar usual do IR2
.
1.11 - Determinar f(x) ∈ K2(x) que seja ortogonal a g(x) = 1 e h(x) = t, em rela¸c˜ao ao produto
escalar dado por:
(f,g) = Z 1
−1
f(x) g(x) dx .
1.12 - Considere no IR3 o produto escalar usual. Determine m ∈ IR de tal modo que os vetores
u = (1, m + 1, m)
t
, v = (m − 1, m, m + 1)t
, sejam ortogonais.
1.13 - Sejam f(x) = x, g(x) = mx2 − 1 e considere o produto escalar usual em C[0, 1]. Determine o
valor de m, para que f(x) e g(x) sejam ortogonais.
Espa¸co Vetorial Normado
Vamos definir agora importantes defini¸c˜oes de norma de vetor e de matriz. Com isso estaremos aptos
a definir, quando oportuno, as no¸c˜oes de limite de uma sequˆencia de vetores ou de matrizes, de grande
utilidade, entre outros, no estudo de convergˆencia de m´etodos iterativos de solu¸c˜ao de sistemas lineares
e do problema de erros de arredondamento nos processos de c´alculo onde intervˆem matrizes ou vetores.
Norma de Vetor
Defini¸c˜ao 1.7 - Chama-se norma de um vetor x, em s´ımbolo, k x k, qualquer fun¸c˜ao definida num
espa¸co vetorial E, com valores em IR , satisfazendo as seguintes condi¸c˜oes:
N1) k x k ≥ 0 e k x k = 0 se e somente se x = θ ,
N2) k λ x k = |λ| k x k para todo escalar λ
N3) k x + y k ≤ k x k + k y k (desigualdade triangular).
Um espa¸co vetorial E, onde est´a definida uma norma ´e chamado espa¸co vetorial normado.
Daremos a seguir alguns exemplos de norma no IRn.
Exemplo 1.8 - Seja E = IRn, e seja x = (x1,x2,. .. ,xn)
t
. Mostrar que, definindo:
k x kE =
vuutXn
i=1
x
2
i
, (1.14)
o IRn torna-se um espa¸co vetorial normado.
Solu¸c˜ao: Vamos mostrar que as condi¸c˜oes N1,N2 e N3 est˜ao satisfeitas, isto ´e, que (1.14) ´e uma norma
CAP´ITULO 1. CONCEITOS BASICOS ´ 11
bem definida no IRn. De fato:
N1) k x kE =
vuutXn
i=1
x
2
i ≥ 0 (evidente).
k x kE =
vuutXn
i=1
x
2
i = 0 ⇔
Xn
i=1
x
2
i = 0 ⇔ xi = 0, ∀i ⇔ x = θ.
N2) k λx kE =
vuutXn
i=1
λ2x
2
i =
vuutλ2Xn
i=1
x
2
i = |λ|
vuutXn
i=1
x
2
i = |λ| k x kE .
N3) k x + y k
2
E =
Xn
i=1
(xi + yi)
2 = (x1 + y1)
2 + (x2 + y2)
2 + .. . + (xn + yn)
2
= x
2
1 + 2x1y1 + y
2
1 + x
2
2 + 2x2y2 + y
2
2 + .. . + x
2
n + 2xnyn + y
2
n
=
Xn
i=1
x
2
i + 2 Xn
i=1
xiyi +
Xn
i=1
y
2
i
≤
Xn
i=1
x
2
i + 2
vuutXn
i=1
x
2
i
vuutXn
i=1
y
2
i +
Xn
i=1
y
2
i
,
onde usamos a desigualdade de Schwarz, isto ´e:
Xn
i=1
xiyi ≤
vuutXn
i=1
x
2
i
vuutXn
i=1
y
2
i
.
Portanto,
k x + y k
2
E ≤ k x k
2
E + 2 k x kE k y kE + k y k
2
E
= (k x kE + k y kE)
2
.
Assim: k x + y k
2
E ≤ (k x kE + k y kE)
2
. Extraindo-se a raiz quadrada de ambos os membros,
temos que: k x + y kE ≤ k x kE + k y kE.
Logo, (1.14) ´e uma boa defini¸c˜ao de norma.
No pr´oximo exemplo, a verifica¸c˜ao de que as condi¸c˜oes N1,N2 e N3 s˜ao satisfeitas, fica como exerc´ıcio.
Exemplo 1.9 - Seja E = IRn, e seja x = (x1,x2,. .. xn)
t
. Definimos ent˜ao:
k x k∞ = max
1≤i≤n
|xi
| ,
k x k1 =
Xn
i=1
|xi
| ,
k x k =
p
(x, x) ,
como normas no IRn.
Observa¸c˜oes:
1) k x k=
p
(x,x) corresponde `a no¸c˜ao intuitiva de comprimento ou m´odulo de um vetor.
CAP´ITULO 1. CONCEITOS BASICOS ´ 12
2) Se usarmos a defini¸c˜ao usual de produto escalar no IRn p
, isto ´e, se usarmos (1.8), ent˜ao: k x k =
(x, x) = pPn
i=1 x
2
i = k x kE.
Exemplo 1.10 - Seja x = (−1, 10, 3, 4, −20)t
. Calcular k x kE, k x k∞ e k x k1 .
Solu¸c˜ao: Aplicando a defini¸c˜ao de cada uma das normas, obtemos:
k x kE =
p
(−1)2 + (10)2 + 32 + 42 + (−20)2 ≃ 22.93,
k x k∞ = max (| − 1|, |10|, |3|, |4|, | − 20|) = 20,
k x k1 = | − 1| + |10| + |3| + |4| + | − 20| = 38.
Como vocˆe pode observar a aplica¸c˜ao de cada uma das normas definidas anteriormente fornece um
resultado diferente. Entretanto, no IRn, todas as normas s˜ao equivalentes.
Defini¸c˜ao 1.8 - Duas normas k · ka e k · kb s˜ao equivalentes se existem constantes k1 e k2 tais que:
k1 k x ka ≤ k x kb ≤ k2 k x ka , ∀ x ∈ E. (1.15)
Exemplo 1.11 - Como exemplos de normas equivalentes, no IRn, temos:
a) k x k∞ ≤ k x k1 ≤ n k x k∞ ,
b) k x k∞ ≤ k x kE ≤
√
n k x k∞ ,
c)
1
n
k x k1 ≤ k x kE ≤
√
x k x k1 .
Vamos verificar que o item a) ´e verdadeiro; a verifica¸c˜ao das demais fica como exerc´ıcio.
Solu¸c˜ao: Temos:
k x k∞ = max
1≤i≤n
|xi
| = max{|x1|, |x2|,. .. , |xn|}
= |xk| ≤ |xk| +
k
X−1
i=1
|xi
| +
Xn
i=k+1
|xi
| =
Xn
i=1
|xi
| = k x k1
= |x1| + |x2| + .. . + |xn| ≤ {|xk| + |xk| + .. . + |xk|
| {z }
n vezes
}
= n|xk| = n max
1≤i≤n
|xi
| = n k x k∞ .
Teorema 1.4 - A desigualdade de Schwarz (1.13) pode ser escrita como:
|(x, y)| ≤ k x k k y k . (1.16)
Prova: A prova deste teorema fica como exerc´ıcio.
Um vetor x, de E, ´e unit´ario se seu comprimento ´e igual a 1, isto ´e, se k x k= 1.
Defini¸c˜ao 1.9 - Seja E um espa¸co euclidiano de dimens˜ao n. Os vetores f1,f2,. .. ,fn formam uma
base ortonormal de E se eles forem vetores ortonormais, ou seja, se:
(fi
,fj ) = δij =
1 se i = j,
0 se i 6= j.
CAP´ITULO 1. CONCEITOS BASICOS ´ 13
Assim uma sequˆencia de vetores ´e ortonormal se cada um dos seus elementos tem norma 1 e dois
quaisquer distintos dentre eles s˜ao ortogonais.
Teorema 1.5 - Num espa¸co euclidiano, um conjunto ortornormal de vetores ´e sempre linearmente independente.
Prova: (an´aloga ao do Teorema 1.1)).
Defini¸c˜ao 1.10 - Seja E um espa¸co euclidiano. Dados os vetores x e y ∈ E, definimos distˆancia entre
x e y, o comprimento do vetor x − y, isto ´e:
d(x,y) = k x − y k → d(x,y) = p
(x − y, x − y).
Temos assim uma aplica¸c˜ao d : E × E → IR, que satisfaz as seguintes condi¸c˜oes:
D1) d(x,y) ≥ 0 e d(x, y) = 0 se e somente se x = y ,
D2) d(x,y) = d(y, x) , ∀x, y ∈ E ,
D3) d(x,y) ≤ d(x, z) + d(z,y) , ∀x,y, z ∈ E .
Norma de Matriz
Como j´a dissemos anteriormente, o conjunto das matrizes (n × n), com as opera¸c˜oes de soma de
matrizes e produto de um escalar por uma matriz forma um espa¸co vetorial E de dimens˜ao n
2
. Podemos
ent˜ao falar em norma de uma matriz A ∈ E. Observe ent˜ao que no caso de matrizes, vale a mesma
defini¸c˜ao de norma de vetor , isto ´e:
Defini¸c˜ao 1.11 - Chama-se norma de uma matriz A, em s´ımbolo, k A k, qualquer fun¸c˜ao definida no
espa¸co vetorial das matrizes n × n, com valores em IR , satisfazendo as seguintes condi¸c˜oes:
M1) k A k ≥ 0 e k A k = 0 se e somente se A = θ(matriz nula) ,
M2) k λ A k = |λ| k A k para todo escalar λ ,
M3) k A + B k ≤ k A k + k B k (desigualdade triangular) .
Daremos a seguir alguns exemplos de norma de matrizes. A verifica¸c˜ao de que s˜ao normas bem
definidas no espa¸co vetorial das matrizes n × n, fica a cargo do leitor.
Exemplo 1.12 - Seja A uma matriz (n × n). Definimos ent˜ao:
a) k A k∞ = max
1≤i≤n
Xn
j=1
|aij | (norma linha) ;
b) k A k1 = max
1≤j≤n
Xn
i=1
|aij | (norma coluna) ;
c) k A kE =
vuut
Xn
i,j=1
a
2
ij (norma euclidiana) .
Para essas normas vale: k AB k≤k A kk B k. (Prove).
Exemplo 1.13 - Seja
A =
3 2 −1
6 3 4
−1 2 1
.
Calcular ||A||∞, ||A||1, ||A||E .
CAP´ITULO 1. CONCEITOS BASICOS ´ 14
Solu¸c˜ao: Usando cada uma das defini¸c˜oes dadas anteriormente, obtemos:
||A||∞ = |6| + |3| + |4| = 13 ,
||A||1 = |3| + |6| + | − 1| = 10 ,
||A||E = (9 + 4 + 1 + 36 + 9 + 16 + 1 + 4 + 1)1/2 = 9 .
Como no caso de vetor, as normas de matrizes tamb´em s˜ao equivalentes, isto ´e, satisfazem uma rela¸c˜ao
do tipo (1.15), com o vetor x substitu´ıdo pela matriz A. A verifica¸c˜ao das desigualdades no pr´oximo
exemplo fica como exerc´ıcio.
Exemplo 1.14 - Como exemplos de normas equivalentes, no espa¸co vetorial das matrizes de ordem n,
temos:
a)
1
n
k A k∞ ≤ k A kE ≤
√
n k A k∞ ,
b)
1
n
k A k1 ≤ k x kE ≤
√
n k x k1 ,
c) k A k∞ ≤ n k A k1 ,
d) k A k1 ≤ n k A k∞ .
Defini¸c˜ao 1.12 - Dada uma norma de vetor, podemos definir uma norma de matriz, que ser´a chamada
de subordinada a ela do seguinte modo:
k A k= sup
kxk=1
k Ax k .
Observe que a norma de matriz assim definida pode ser interpretada como sendo o comprimento do
maior vetor no conjunto imagem {Ax} da esfera unit´aria {x / k x k= 1} pela transforma¸c˜ao x → Ax.
Defini¸c˜ao 1.13 - Se uma norma de matriz e uma norma de vetor est˜ao relacionadas de tal modo que a
desigualdade:
k Ax k ≤ k A kk x k ,
´e satisfeita para qualquer x, ent˜ao dizemos que as duas normas s˜ao consistentes.
Note que existe um vetor x0 tal que: k Ax k=k A kk x k. Nestas condi¸c˜oes: k A k= mink tal que
k Ax k≤ k k x k .
Exerc´ıcios
1.14 - Considere os vetores do IR6
: x = (1, 2, 0, −1, 2, −10)t
e y = (3, 1, −4, 12, 3, 1)t
. Calcule
a norma de cada um desses vetores usando as normas definidas no exemplo 1.9.
1.15 - No espa¸co vetorial IR4
, munido do produto escalar usual, sejam x = (1, 2, 0, 1)t
e y =
(3, 1, 4, 2)t
. Determine: (x,y), k x k, k y k,d(x,y) e
x + y
k x + y k
.
1.16 - Prove que num espa¸co euclidiano normado:
a) k x + y k
2 + k x − y k
2= 2(k x k
2k +y k
2
),
b) | k x k − k y k | ≤k x − y k.
CAP´ITULO 1. CONCEITOS BASICOS ´ 15
1.17 - Sejam u e v vetores de um espa¸co euclidiando tais que k u k= 1, k v k= 1 e k u − v k= −2.
Determine (u, v).
1.18 - Considere as seguintes matrizes:
A =
2 1
3 2
; B =
3 2 1
2 2 1
3 3 2
; C =
2 1 3 −1
4 3 8 2
6 7 10 1
3 −1 0 1
.
Calcule a norma de cada uma delas usando as normas definidas no exemplo 1.12.
1.3 Processo de Gram-Schmidt
Em diversos problemas relacionados com espa¸co vetorial, a escolha de uma base para o espa¸co fica
a crit´erio da pessoa que se propˆos a resolver o problema. E claro que sempre a melhor estrat´egia ser´a ´
escolher a base que melhor simplifique os c´alculos. Em espa¸cos euclidianos, tem-se muitas vezes o caso
em que a melhor escolha da base ´e aquela onde todos os seus vetores s˜ao mutuamente ortogonais ou
ortonormais.
Vimos anteriormente que uma sequˆencia ortonormal de vetores ´e sempre linearmente independente.
Vamos agora mostrar que ´e sempre poss´ıvel construir, a partir de uma sequˆencia de vetores linearmente
independentes {f1,f2,. .. ,fn}, uma sequˆencia ortogonal {e1,e2,. .. ,en}.
Para obtermos uma sequˆencia ortonormal {e
∗
1
,e∗
2
,. .. ,e∗
n}, basta fazer:
e
∗
i =
ei
k ei k
, i = 1, 2,. .. ,n.
Teorema 1.6 - Todo espa¸co euclidiano n dimensional tem uma base ortogonal e uma base ortonormal.
Prova: Todo espa¸co euclidiano E ´e um espa¸co vetorial, e, portanto tem uma base. Seja f1,f2,. .. ,fn
uma base desse espa¸co euclidiano. Vamos construir a partir de f1,f2,. .. ,fn uma base ortogonal de E.
Seja {e1,e2,. .. ,en} a base procurada.
Tomamos e1 como sendo igual ao primeiro elemento da sequˆencia dada, isto ´e:
e1 = f1 .
O elemento e2 ser´a tomado como combina¸c˜ao linear do segundo elemento da sequˆencia dada e e1, ou
seja:
e2 = f2 + α1 e1 ,
onde α1 ´e escolhido de tal maneira que e2 seja ortogonal a e1. Assim: (e2,e1) = 0 → (f2 +α1 e1,e1) = 0.
Portanto, segue que:
α1 = −
(f2,e1)
(e1,e1)
.
Vamos supor que j´a temos constru´ıdo os vetores: e1,e2,. .. ,ek−1, dois a dois ortogonais. O elemento
ek ser´a tomado como combina¸c˜ao linear do k
o
elemento da sequˆencia dada e todos os ei
, j´a calculados,
isto ´e:
ek = fk + αk−1 ek−1 + αk−2 ek−2 + .. . + α1 e1 ,
CAP´ITULO 1. CONCEITOS BASICOS ´ 16
onde os αi
, i = 1, 2,. .. ,k − 1, s˜ao determinados de tal maneira que ek seja ortogonal a todos os ei j´a
calculados. Assim, devemos ter: (ek,ei) = 0, i = 1, 2,. .. ,k − 1, ou seja:
(ek,e1) = (fk + αk−1ek−1 + .. . + α1e1,e1) = 0 ,
(ek,e2) = (fk + αk−1ek−1 + .. . + α1e1,e2) = 0 ,
.
.
.
(ek,ek−1) = (fk + αk−1ek−1 + .. . + α1e1,ek−1) = 0 .
Desde que os vetores e1,e2,. .. ,ek−1 foram constru´ıdos dois a dois ortogonais, obtemos:
(fk,e1) + α1 (e1,e1) = 0 ,
(fk,e2) + α2 (e2,e2) = 0 ,
.
.
.
(fk,ek−1) + αk−1 (ek−1,ek−1) = 0 .
Portanto, segue que:
α1 = −
(fk,e1)
(e1,e1
,
α2 = −
(fk,e2)
(e2,e2)
,
.
.
.
αk−1 = −
(fk,ek−1)
(ek−1,ek−1)
.
Mostremos agora que ek 6= 0. De fato, temos que ek ´e combina¸c˜ao linear dos vetores e1,e2,. .. ,ek−1,fk.
Mas ek−1 pode ser escrito com combina¸c˜ao linear dos vetores e1,e2,. .. ,ek−2,fk−1 e assim por diante.
Ent˜ao, substituindo, teremos:
ek = a1 f1 + a2 f2 + .. . + ak−1 fk−1 + fk ,
e como f1,f2,. .. ,fk, s˜ao linearmente independentes, temos que ek 6= 0; qualquer que seja k.
Assim, usando e1,e2,. .. ,ek−1 e fk constru´ımos ek. Analogamente com e1,e2,. .. ,ek e fk+1 constru´ımos
ek+1. Continuando o processo, constru´ımos os n vetores dois a dois ortogonais. Assim esses
vetores formam uma base ortogonal de E. Tomando:
e
∗
i =
ei
k ei k
, i = 1, 2,. .. ,n ;
teremos uma base ortonormal de E.
Chama-se processo de Gram-Schmidt a constru¸c˜ao passo a passo (descrita na prova do teorema
1.6) para converter uma base arbitr´aria em base ortogonal.
Exemplo 1.15 - Construir a partir de
f1 = (1, −2, 0)t
,f2 = (0, 1, 1)t
,f3 = (1, 0, −1)t
;
uma sequˆencia de vetores ortonormais e
∗
1
,e∗
2
,e∗
3
, relativamente ao produto escalar usual do IR3
, usando o
processo de Gram-Schmidt.
CAP´ITULO 1. CONCEITOS BASICOS ´ 17
Solu¸c˜ao: Temos:
e1 = f1 = (1, −2, 0)t
.
e2 = f2 + α1 e1, onde
α1 = −
(f2,e1)
(e1,e1)
= −
−2
5
=
2
5
⇒
e2 = (0, 1, 1)t +
2
5
(1, −2, 0)t =
2
5
,
1
5
, 1
t
.
e3 = f3 + α2e2 + α1e1, onde
α2 = −
(f3,e2)
(e2,e2)
= −
−3/5
6/5
=
1
2
,
α1 = −
(f3,e1)
(e1,e1)
= −
1
5
⇒
e3 = (1, 0, −1)t +
1
2
2
5
,
1
5
, 1
−
1
5
(1, −2, 0)t =
1,
1
2
, −
1
2
t
.
Assim e1,e2,e3 s˜ao dois a dois ortogonais. Para obtermos a sequˆencia ortonormal e
∗
1
,e∗
2
,e∗
3
, fazemos:
e
∗
1 =
e1
k e1 k
= p
e1
(e1,e1)
=
(1, −2, 0)t
p
1
2 + (−2)2 + 02
=
√
1
5
, √−2
5
, 0
t
;
e
∗
2 =
e2
k e2 k
= p
e2
(e2,e2)
=
(2/5, 1/5, 1)t
p
(2/5)2 + (1/5)2 + 12
=
q
5
6
2
5
,
1
5
, 1
t
;
e
∗
3 =
e3
k e3 k
= p
e3
(e3,e3)
=
(1, 1/2, −1/2)t
p
1
2 + (1/2)2 + (−1/2)2
=
q
2
3
1,
1
2
, −12t
.
Exemplo 1.16 - Dada a sequˆencia de polinˆomios independentes {1, x, x2} obter, no intervalo [−1, 1],
uma sequˆencia ortogonal de polinˆomios {P0(x),P1(x),P2(x)} relativamente ao produto escalar (f,g) =
R 1
−1
f(x) g(x) dx .
Solu¸c˜ao: Temos:
P0(x) = 1 ,
P1(x) = x + α0P0(x) , onde
α0 = −
(x, P0(x))
(P0(x),P0(x)) = −
R 1
−1
x dx
R 1
−1
dx
=
x
2/2
x
1
−1
= 0 ⇒
P1(x) = x + 0 × 1 = x.
P2(x) = x
2 + α1P1(x) + α0P0(x), onde
α1 = −
(x
2
, P1(x))
(P1(x),P1(x)) = −
R 1
−1
x
3 dx
R 1
−1
x
2 dx
=
x
4/4
x
3/3
1
−1
= 0 ,
α0 = −
(x
2
, P0(x))
(P0(x),P0(x)) = −
R 1
−1
x
2 dx
R 1
−1
dx
= −
x
3/3
x
1
−1
= −
2/3
2
= −
1
3
⇒
P2(x) = x
2 + 0 × x −
1
3
× 1 = x
2 −
1
3
.
CAP´ITULO 1. CONCEITOS BASICOS ´ 18
Assim P0(x),P1(x),P2(x) s˜ao dois a dois ortogonais.
Observe que sempre que desejarmos obter uma sequˆencia de polinˆomios ortogonais sobre um determinado
intervalo, podemos tomar a sequˆencia 1, x, x2
,. .. como sendo a sequˆencia original e ortogonaliz´a-la.
Exerc´ıcios
1.19 - Usando o processo de Gram-Schmidt e o produto escalar usual do IR3
, ortonormalizar a base:
e1 = (1, 1, 1)t
,e2 = (1, −1, 1)t
,e3 = (−1, 0, 1)t
.
1.20 - Os vetores {(0, 2, 1, 0)t
,(1, −1, 0, 0)t
,(1, 2, 0, −1)t
,(1, 0, 0, 1)t} constituem uma base
n˜ao ortonormal do IR4
. Construir a partir desses vetores, uma base ortonormal para o IR4
, usando o
processo de Gram-Schmidt.
1.21 - Ortonormalize a sequˆencia de polinˆomios obtida no exemplo 1.16.
1.22 - Usando o produto escalar usual em C[1, 2] e o processo de Gram-Schmidt construa uma sequˆencia
de polinˆomios ortonormais.
1.4 Proje¸c˜ao Ortogonal
Veremos aqui a proje¸c˜ao ortogonal de um vetor sobre outro bem como a proje¸c˜ao ortogonal de um
vetor sobre um sub-espa¸co. Esse ´ultimo ser´a utilizado no estudo de aproxima¸c˜oes de fun¸c˜oes pelo m´etodo
dos m´ınimos quadrados.
Proje¸c˜ao Ortogonal de um Vetor sobre Outro
Sejam x e y vetores n˜ao nulos. Escolhemos um n´umero real λ tal que λ y seja ortogonal a x − λ y,
como sugere a Figura 1.2, no caso em que E = IR2
.
x − λ y
λ y
x
y
✯ ✻
✲ ✲
Figura 1.2
De λ y ⊥ (x − λ y), conclu´ımos que (λ y,x − λ y) = 0. Portanto, aplicando P3, segue que:
λ(y, x) − λ
2
(y, y) = 0 → λ =
(x,y)
(y, y)
.
Assim, obtemos a seguinte defini¸c˜ao.
Defini¸c˜ao 1.14 - Num espa¸co euclidiano real, chama-se proje¸c˜ao ortogonal de x sobre y, y 6= θ, o
vetor z definido por:
z = (proje¸c˜ao de x sobre y) = (x,y)
(y, y)
y.
CAP´ITULO 1. CONCEITOS BASICOS ´ 19
Se k y k= 1, ent˜ao a proje¸c˜ao de x sobre y ´e dada por (x, y) y.
Proje¸c˜ao Ortogonal de um Vetor sobre um Sub-Espa¸co
Seja E um espa¸co euclidiano e seja E′
, de dimens˜ao finita n, um sub-espa¸co de E.
Seja v um vetor de E n˜ao pertencente a E′
.
O problema que desejamos resolver agora ´e o de obter um vetor v0 ∈ E′
tal que v − v0 seja ortogonal
a todo vetor de E′
. (A Figura 1.3 ilustra o problema, para o caso em que E = IR3
e E′ = IR2
).
e1
e2
v − v0
v0
v
❘
✒✻
✠
✠
✻
✲ ✲
Figura 1.3
Seja {e1,e2,. .. ,en} uma base de E′
. Como v0 ∈ E′
, v0 pode ser escrito como combina¸c˜ao linear dos
vetores da base de E′
, isto ´e:
v0 = γ1 e1 + γ2 e2 + .. . + γn en . (1.17)
O nosso problema consiste em determinar, caso poss´ıvel, as coordenadas γ1,γ2,. .. ,γn de v0.
Sabemos que se v − v0 deve ser ortogonal a todo vetor de E′
ent˜ao ´e necess´ario e suficiente que v − v0
seja ortogonal a todo vetor de uma base de E′
(Teorema 1.2). Ent˜ao, devemos ter:
(v − v0,ej ) = 0 para j = 1, 2,. .. ,n ; ou seja :
(v − (γ1 e1 + γ2 e2 + .. . + γn en),ej ) = 0 , j = 1, 2,. .. ,n.
A aplica¸c˜ao de P2 e P3, fornece:
γ1 (e1,ej ) + γ2 (e2,ej ) + .. . + γn (en,ej ) = (v,ej ) , j = 1,. .. ,n .
Tais equa¸c˜oes s˜ao conhecidas por equa¸c˜oes normais.
Assim, para obtermos as coordenadas de v0 na base {e1,e2,. .. ,en}, devemos resolver o sistema de
equa¸c˜oes lineares:
(e1,e1) (e2,e1) .. . (en,e1)
(e1,e2) (e2,e2) .. . (en,e2)
.. .
(e1,en) (e2,en) .. . (en,en)
γ1
γ2
.
.
.
γn
=
(v,e1)
(v,e2)
.
.
.
(v,en)
, (1.18)
cuja matriz dos coeficientes ´e sim´etrica.
Mostremos agora que o sistema (1.18) tem uma e uma s´o solu¸c˜ao, isto ´e, que o problema de determina¸c˜ao
do vetor v0 ∈ E′
, tal que v − v0 seja ortogonal a todo vetor de E′
, tem solu¸c˜ao ´unica.
CAP´ITULO 1. CONCEITOS BASICOS ´ 20
O vetor v0 ´e denominado proje¸c˜ao ortogonal de v sobre o sub-espa¸co E′
.
Vamos supor que nossa base de partida fosse uma base {e
′
1
,e′
2
,. .. ,e′
n} ortonormal. Esta n˜ao seria uma
hip´otese restritiva, uma vez que ´e sempre poss´ıvel passar-se de uma dada base para uma base ortonormal,
(ver processo de Gram-Schmidt).
Em termos da base ortonormal considerada o vetor v0 se exprimiria como:
v0 = γ
′
1
e
′
1 + γ
′
2
e
′
2 + .. . + γ
′
n
e
′
n
.
O sistema linear (1.18) se reduziria a:
1
1
.
.
.
1
γ
′
1
γ
′
2
.
.
.
γ
′
n
=
(v,e′
1
)
(v,e′
2
)
.
.
.
(v,e′
n
)
,
ou simplesmente a:
γ
′
j =
v,e′
j
, j = 1, 2,. .. ,n , (1.19)
e portanto os γ
′
j
seriam univocamente determinados.
Sabemos que, conhecidas as coordenandas de um vetor numa base, suas coordenadas em outra qualquer
base s˜ao tamb´em univocamente determinadas. Assim, o sistema (1.18) tem uma ´unica solu¸c˜ao
(γ1,γ2,. .. ,γn)
t
e a matriz do sistema em apre¸co ´e sempre n˜ao singular. A proje¸c˜ao ortogonal v0 de v
sobre E′ ´e, portanto, ´unica.
Exemplo 1.17 - Seja E = C[−1, 1], com (f,g) = R 1
−1
f(x)g(x)dx. Seja K2(x) o sub-espa¸co dos polinˆomios
de grau ≤ 2. O conjunto {L0(x) = 1, L1(x) = x, L2(x) = x
2} constitui uma base de K2(x).
Determinar a proje¸c˜ao ortogonal de f(x) = 1
x + 4 sobre k2(x).
Solu¸c˜ao: De (1.17) temos: f0 = γ0 L0(x) + γ1 L1(x) + γ2 L2(x). Assim, devemos determinar γ0,γ1,γ2.
Para tanto, montamos o sistema (1.18):
(L0,L0) (L1,L0) (L2,L0)
(L0,L1) (L1,L1) (L2,L1)
(L0,L2) (L1,L2) (L2,L2)
γ0
γ1
γ2
=
(f,L0)
(f,L1)
(f,L2)
;
onde:
(L0,L0) = Z 1
−1
dx = x]
1
−1 = 2 ,
(L1,L0) = (L0,L1) = Z 1
−1
x dx =
x
2
2
1
−1
= 0 ,
(L2,L0) = (L0,L2) = Z 1
−1
x
2
dx =
x
3
3
1
−1
=
2
3
,
(L1,L1) = Z 1
−1
x
2
dx =
2
3
,
CAP´ITULO 1. CONCEITOS BASICOS ´ 21
(L2,L1) = (L1,L2) = Z 1
−1
x
3
dx =
x
4
4
1
−1
= 0 ,
(L2,L2) = Z 1
−1
x
4
dx =
x
5
5
1
−1
=
2
5
,
(f,L0) = Z 1
−1
1
x + 4
dx = (ln (x + 4))] 1
−1 = 0.51083 ,
(f,L1) = Z 1
−1
x
x + 4
dx =
Z 1
−1
1 −
4
x + 4
dx
= (x − 4 ln (x + 4))] 1
−1 = −0.04332 ,
(f,L2) = Z 1
−1
x
2
x + 4
dx =
Z 1
−1
x − 4 + 16
x + 4
dx
=
x
2
2
− 4 x + 16 ln (x + 4) 1
−1
= 0.17328 .
Assim, obtemos o sistema linear:
2 0 2/3
0 2/3 0
2/3 0 2/5
γ0
γ1
γ2
=
0.51083
−0.04332
0.17328
,
cuja solu¸c˜ao ´e: γ0 = 0.24979 ; γ1 = − 0.06498 ; γ2 = 0.01688. Ent˜ao, a proje¸c˜ao ortogonal de f(x) =
1
x + 4 sobre K2(x) ´e:
f0 = 0.24979 L0(x) − 0.06498 L1(x) + 0.01688 L2(x)
= 0.24979 − 0.06498 x + 0.01688 x
2
.
Teorema 1.7 - Teorema da Melhor Aproxima¸c˜ao - Seja E′ um sub-espa¸co de dimens˜ao finita de
um espa¸co euclidiano E. Se v for um vetor pertencente a E, ent˜ao v0, a proje¸c˜ao ortogonal de v sobre
E′
, ser´a a melhor aproxima¸c˜ao para v no sentido de que
k v − v0 k < k v − y k , (1.20)
para qualquer que seja y ∈ E′
, tal que y 6= v0.
Prova: Devemos mostrar que a menor distˆancia de v ao sub-espa¸co E′ ´e a distˆancia entre v e o p´e da
perpendicular tra¸cada da extremidade de v sobre E′
. (A Figura 1.3 ilustra o problema para o caso em
que E = IR3
e E′ = IR2
).
CAP´ITULO 1. CONCEITOS BASICOS ´ 22
v − y
v0 − y
y v0
v − v0
v
✕
✲
❘ ❘
✒✻
✠
✻
✲
Figura 1.4
Como y, v0 ∈ E′
tamb´em v0−y ∈ E′
e ´e portanto ortogonal a v−v0. Assim, obtemos, sucessivamente:
(v − y, v − y) = (v − y + v0 − v0,v − y + v0 − v0)
= (v − v0,v − v0) + 2 (v − v0,v0 − y) + (v0 − y, v0 − y).
Portanto:
k v − y k
2 = k v − v0 k
2 + k v0 − y k
2
. (1.21)
Como, por hip´otese, y 6= v0, conclu´ımos que k v0 − y k > 0. Da´ı, e da igualdade (1.21), obtemos,
finalmente:
k v − y k > k v − v0 k .
Assim, a desigualdade (1.20) mostra que a proje¸c˜ao ortogonal v0 de v sobre E′ ´e tal que a menor
distˆancia de v sobre E′ ´e a distˆancia de v a v0.
Exerc´ıcios
1.23 - Seja x = (1, 7, 10)t um vetor do IR3
em rela¸c˜ao `a base canˆonica. Considere o sub-espa¸co E′
do IR3
, gerado pelos vetores f1 = (1, 1, 0)t
e f2 = (0, 1, 1)t
. Determine a proje¸c˜ao ortogonal de x sobre
E′
.
1.24 - Seja E = C[0, 1], com (f,g) = R 1
0
f(x)g(x)dx. Seja K2(x) o sub-espa¸co dos polinˆomios de grau
≤ 2. O conjunto {Q0(x) = 3, Q1(x) = x−3, Q2(x) = x
2 −x} constitui uma base de K2(x). Determinar
a proje¸c˜ao ortogonal de f(x) = 1
x
4
sobre k2(x).
1.5 Auto-Valores e Auto-Vetores
Nessa se¸c˜ao, investigaremos a teoria de um operador linear T num K-espa¸co vetorial V de dimens˜ao
finita. Tamb´em associaremos um polinˆomio ao operador T: seu polinˆomio caracter´ıstico. Esse polinˆomio
e suas ra´ızes desempenham papel proeminente na investiga¸c˜ao de T. Apresentaremos tamb´em alguns
conceitos que ser˜ao de grande utilidade na obten¸c˜ao de m´etodos para determina¸c˜ao num´erica de autovalores
e auto-vetores de matrizes.
Defini¸c˜ao 1.15 - Uma transforma¸c˜ao linear T de um K-espa¸co vetorial V em um K-espa¸co vetorial
U, T : V → U, ´e uma correspondˆencia que associa a cada vetor x de V um vetor T(x) em U de modo
que:
T(αx + βy) = αT(x) + βT(y) , ∀x, y ∈ V, ∀α, β ∈ K.
CAP´ITULO 1. CONCEITOS BASICOS ´ 23
Em particular, se U = V , ent˜ao dizemos que T ´e um operador linear num K-espa¸co vetorial V .
Defini¸c˜ao 1.16 - Um escalar λ ∈ K ´e um auto-valor de T se existe um vetor n˜ao nulo v ∈ V tal que:
T(v) = λ v .
Todo vetor v satisfazendo essa rela¸c˜ao ´e um auto-vetor de T correspondente ao auto-valor λ.
Observa¸c˜oes:
1. Se λ ´e um auto-valor de T, ent˜ao o operador linear pode apenas variar o m´odulo e o sentido do
vetor, nunca sua dire¸c˜ao.
2. Os termos valor caracter´ıstico e vetor caracter´ıstico (ou valor pr´oprio e vetor pr´oprio) s˜ao frequentemente
usados ao inv´es de auto-valor e auto-vetor.
Daremos a seguir alguns exemplos.
Exemplo 1.18 - Seja I : V → V o operador identidade onde V = IRn. Determinar seus auto-valores e
auto-vetores.
Solu¸c˜ao: Para cada v ∈ V , temos que:
I(v) = v = 1 · v .
Portanto, 1 ´e auto-valor de I e todo vetor n˜ao nulo em V ´e um auto-vetor correspondente ao auto-valor
1.
Exemplo 1.19 - Seja D : V → V o operador diferencial onde V ´e o espa¸co vetorial das fun¸c˜oes diferenci´aveis.
Determinar um auto-valor de D e seu correspondente auto-vetor.
Solu¸c˜ao: Temos que e
kt ∈ V , e, sabemos que:
D
$
e
kt
= k ekt
.
Logo, k ´e um auto-valor de D e e
kt ´e auto-vetor de D correspondente ao auto-valor k.
Exemplo 1.20 - Seja T : IR2 → IR2 o operador linear que gira cada vetor v ∈ IR2 de um ˆangulo ψ.
Determinar os auto-valores e correspondentes auto-vetores nos seguintes casos:
a)ψ = 2nπ , b)ψ = (2n + 1)π , c)ψ =
2n + 1
2
π .
Solu¸c˜ao: Temos que o operador linear que gira cada vetor de um ˆangulo ψ ´e dado por uma matriz
chamada matriz de rota¸c˜ao. No caso em que V = IR2
essa matriz ´e dada por:
T =
cos ψ sen ψ
−sen ψ cosψ
.
Seja v ∈ IR2
, ent˜ao v = (v1, v2)
t
. Podemos considerar nos trˆes casos n = 1, visto que para valores
maiores de n teremos apenas um n´umero maior de rota¸c˜oes. Assim, para:
a) ψ = 2π, temos:
cos 2π sen 2π
−sen 2π cos 2π
v1
v2
=
v1
v2
= 1
v1
v2
,
CAP´ITULO 1. CONCEITOS BASICOS ´ 24
b) ψ = 3π, temos:
cos 3π sen 3π
−sen 3π cos 3π
v1
v2
=
−v1
−v2
= −1
v1
v2
,
c) ψ =
3π
2
cos 3π
2
sen 3π
2
−sen 3π
2
cos 3π
2
!
v1
v2
=
−v2
v1
6= λ
v1
v2
.
Logo, os auto-valores de T s˜ao:
1 se ψ = 2nπ , −1 se ψ = (2n + 1)π ,
e em ambos os casos todo vetor n˜ao nulo do IR2 ´e auto-vetor de T. Se ψ = (2n + 1
2
)π, T n˜ao tem
auto-valores e portanto T n˜ao tem auto-vetores. Observe que neste caso o operador linear est´a variando
a dire¸c˜ao do vetor.
Se A ´e uma matriz quadrada n × n sobre K, ent˜ao um auto-valor de A significa um auto-valor de A
encarado como operador em Kn. Isto ´e, λ ∈ K ´e um auto-valor de A se, para algum vetor (coluna) n˜ao
nulo v ∈ Kn,Av = λv. Nesse caso, v ´e um auto-vetor de A correspondente a λ.
Exemplo 1.21 - Seja:
A =
3 4
2 1
.
Determinar os auto-valores e auto-vetores de A.
Solu¸c˜ao: Procuramos um escalar λ e um vetor n˜ao nulo v = (v1, v2)
t
tais que Av = λv. Assim:
3 4
2 1 v1
v2
= λ
v1
v2
.
A equa¸c˜ao matricial acima ´e equivalente ao sistema homogˆeneo:
3v1 + 4v2 = λv1
2v1 + v2 = λv2
ou
(3 − λ)v1 + 4v2 = 0
2v1 + (1 − λ)v2 = 0 (1.22)
Para que o sistema homogˆeneo tenha solu¸c˜ao n˜ao nula, o determinante da matriz dos coeficientes deve
ser igual a zero. Logo:
(3 − λ) 4
2 (1 − λ)
= λ
2 − 4λ − 5 = (λ − 5)(λ + 1) = 0 .
Assim, λ ´e um auto-valor de A se e somente se, λ = 5 ou λ = −1.
Fazendo λ = 5 em (1.22), obtemos:
−2v1 + 4v2 = 0
2v1 − 4v2 = 0
ou simplesmente, v1−2v2 = 0 ⇒ v1 = 2v2. Assim v = (v1, v2)
t = (2, 1)t ´e um auto-vetor correspondente
ao auto-valor λ = 5. Qualquer outro auto-vetor correspondente a λ = 5 ´e um m´ultiplo de v.
CAP´ITULO 1. CONCEITOS BASICOS ´ 25
Fazendo λ = −1 em (1.22), obtemos:
4v1 + 4v2 = 0
2v1 + 2v2 = 0
ou simplesmente, v1 + v2 = 0 ⇒ v1 = −v2. Assim v = (v1, v2)
t = (1, −1)t ´e um auto-vetor correspondente
ao auto-valor λ = −1 e novamente, qualquer outro auto-vetor correspondente a λ−1 ´e um m´ultiplo
de v.
Defini¸c˜ao 1.17 - Dada uma matriz quadrada A,n × n, a matriz:
A − λI =
a11 − λ a12 .. . a1n
a21 a22 − λ . .. a2n
.. . . .. . .. .. .
an1 an2 .. . ann − λ
,
onde I ´e a matriz identidade de ordem n e λ ´e um parˆametro, ´e chamada matriz caracter´ıstica de A.
Seu determinante , |A−λI|, ´e um polinˆomio de grau n em λ chamado polinˆomio caracter´ıstico de A.
Exemplo 1.22 - Seja A =
1 2
3 4
. Determinar seu polinˆomio caracter´ıstico.
Solu¸c˜ao: Para calcular o polinˆomio caracter´ıstico de A, basta calcular o determinante de A−λI. Assim:
|A − λI| =
1 − λ 2
3 4 − λ
= λ
2 − 5λ − 2 .
| {z }
polinˆomio caracter´istico.
Exerc´ıcios
1.25 - Prove que os auto-valores de A s˜ao os zeros do polinˆomio caracter´ıstico.
1.26 - Prove que: se λ1, λ2, .. ., λn s˜ao auto-valores de A ent˜ao λ
k
1
, λk
2
, ... , λk
n
s˜ao auto-valores de
Ak
.
Como j´a dissemos anteriomente estudaremos, (no Cap´ıtulo 7), m´etodos num´ericos para determina¸c˜ao
de auto-valores e auto-vetores de matrizes. Tais m´etodos para serem obtidos dependem de alguns conceitos
os quais passamos a discutir agora.
Polinˆomio de Matrizes
Defini¸c˜ao 1.18 Seja:
P(t) = a0 t
n + a1 t
n−1 + .. . + an−1 t + an ,
um polinˆomio de grau n onde os ai
, i = 1, 2,. .. ,n s˜ao reais.
Se A ´e uma matriz quadrada real, ent˜ao definimos:
P(A) = a0 A
n + a1 A
n−1 + .. . + an−1 A + an I ,
como sendo o polinˆomio da matriz A. Na express˜ao acima I ´e a matriz identidade.
Em particular, se P(A) = θ, (matriz nula), dizemos que A ´e um zero de P(t).
CAP´ITULO 1. CONCEITOS BASICOS ´ 26
Exemplo 1.23 - Seja A =
1 2
3 4
. Calcular P(A) e Q(A), sabendo que: P(t) = 2t
3 − 3t + 7 e
Q(t) = t
2 − 5t − 2.
Solu¸c˜ao: Temos que:
P(A) = 2
1 2
3 4 3
− 3
1 2
3 4
+ 7
1 0
0 1
=
18 14
21 39
,
e
Q(A) =
1 2
3 4 2
− 5
1 2
3 4
− 2
1 0
0 1
=
0 0
0 0
.
Assim, A ´e um zero de Q(t). Note que Q(t) ´e o polinˆomio caracter´ıstico de A.
Teorema 1.8 - (Teorema de Cayley-Hamilton) - Toda matriz ´e um zero do seu polinˆomio caracter´ıstico.
Prova: A prova desse teorema pode ser encontrada em [Barnett, 1990 ].
Transforma¸c˜oes de Similaridades (ou Semelhan¸ca)
Existem m´etodos num´ericos que determinam todos os auto-valores de uma matriz sem determinar a
express˜ao do polinˆomio caracter´ıstico. Tais m´etodos s˜ao obtidos usando-se transforma¸c˜oes de similaridade.
Defini¸c˜ao 1.19 - Uma matriz B ´e similar (ou semelhante) a uma matriz A se ∃ uma matriz C n˜ao
singular tal que:
B = C
−1AC ,
e dizemos que B foi obtida de A por transforma¸c˜ao de semelhan¸ca.
Teorema 1.9 - Sejam A e B matrizes similares. Ent˜ao:
i) A e B possuem os mesmos auto-valores.
ii) Se v ´e auto-vetor de A associado a λ, ent˜ao C
−1v ´e auto-vetor de B = C
−1AC associado a λ.
Prova: Seja B = C
−1AC, e suponha que λ ´e auto-valor de A e v seu correspondente auto-vetor. Temos
ent˜ao, que det(A − λI) ´e o polinˆomio caracter´ıstico de A.
i) Temos :
det(B − λI) = det(C
−1AC − λI)
= det(C
−1
(A − λI)C)
= detC−1
det(A − λI)detC
= det(A − λI)det(C
−1C | {z }
=I
) = det(A − λI) .
Portanto A e B possuem o mesmo polinˆomio caracter´ıstico. Logo λ ´e auto-valor de B.
ii) Agora Av = λv e desde que B = C
−1AC ⇒ A = CBC−1
. Portanto CBC−1v = λv. Assim:
BC−1
v = C
−1λv = λC−1
v .
Portanto B(C
−1v) = λ(C
−1v). Logo C
−1v ´e auto-vetor de B associado ao auto-valor λ.
CAP´ITULO 1. CONCEITOS BASICOS ´ 27
Lema 1.1 - Seja A uma matriz de ordem n com auto-valores λi e correspondentes auto-vetores vi, os
quais vamos supor sejam linearmente independentes, e seja
D =
λ1
λ2
λ3
.
.
.
λn
.
Ent˜ao D = V
−1AV se e somente a i-´esima coluna de V ´e vi.
Prova: Se a i-´esima coluna de V ´e denotada por vi ent˜ao a i-´esima coluna de AV e V D s˜ao, Avi e
λivi
, respectivamente. Portanto os vetores vi s˜ao os auto-vetores de A se e somente se AV = V D. Esta
equa¸c˜ao pode ser rearranjada como: V
−1AV desde que V seja invers´ıvel, e este ´e o caso pois as colunas
de V s˜ao linearmente independentes.
Matriz de Rota¸c˜ao e Matriz Ortogonal
Alguns m´etodos num´ericos s˜ao obtidos usando-se matrizes que possuem caracter´ısticas especiais. Assim,
passamos a descrever tais matrizes.
No IR2 as matrizes:
cos ϕ sen ϕ
−sen ϕ cos ϕ
,
cos ϕ −sen ϕ
sen ϕ cos ϕ
,
rotacionam cada vetor do IR2
, no sentido hor´ario e anti-hor´ario, respectivamente, de um ˆangulo ϕ, e
porisso s˜ao chamadas de Matrizes de Rota¸c˜ao.
No IR3 a matriz:
cos ϕ 0 sen ϕ
0 1 0
−sen ϕ 0 cos ϕ
,
´e uma matriz de rota¸c˜ao, no sentido hor´ario, de um ˆangulo ϕ no plano x, z.
No IRn a matriz:
U =
1
.
.
.
1
cos ϕ 0 .. . 0 sen ϕ
1
.
.
.
.
.
.
1
−sen ϕ 0 .. . 0 cos ϕ
.
.
.
1
(1.23)
onde:
upp = uqq = cosϕ
upg = −uqp = senϕ
uij = 1,i 6= p, i 6= q
uij = 0, no resto
CAP´ITULO 1. CONCEITOS BASICOS ´ 28
´e uma matriz de rota¸c˜ao de um ˆangulo ϕ no plano dos eixos p e q.
Uma Matriz Ortogonal U ´e caracterizada por:
U
tU = UUt = I ,
onde I: matriz identidade. Portanto U
t = U
−1
.
Observe que matrizes de rota¸c˜ao s˜ao matrizes ortogonais.
Propriedades de Matrizes Ortogonais
1) As linhas de U satisfazem:
Xn
j=1
(uij )
2 = 1 (produto de uma linha por ela mesma) ,
Xn
j=1
i6=k
uij ukj = 0 (produto de duas linhas distintas) .
2) ||Ux|| = ||x||, ∀x ∈ IRn.
3) A transforma¸c˜ao ortogonal n˜ao muda os ˆangulos entre dois vetores. Portanto uma transforma¸c˜ao
ortogonal ou ´e uma rota¸c˜ao ou ´e uma reflex˜ao.
4) Os auto-valores s˜ao: 1 ou -1.
5) O determinante ´e 1 ou -1.
Para finalizar essa se¸c˜ao daremos um teorema que nos permite ter uma id´eia da localiza¸c˜ao dos autovalores
de uma matriz, seja ela sim´etrica ou n˜ao. Os auto-valores de matrizes n˜ao sim´etricas podem, ´e
l´ogico, serem complexos, e nestes casos o teorema fornece a localiza¸c˜ao destes n´umeros no plano complexo.
Existem situa¸c˜oes onde n˜ao ´e necess´ario obter os auto-valores com muita precis˜ao, isto ´e, existem ocasi˜oes
onde o que desejamos ´e saber se os auto-valores s˜ao positivos ou ent˜ao se est˜ao contidos no c´ırculo
unit´ario. O Teorema a seguir pode ser usado para responder a estas perguntas sem a necessidade de
c´alculos detalhados.
Teorema 1.10 - Teoremas de Gerschgorin
a) Primeiro Teorema de Gerschgorin - Os auto-valores de uma matriz A = (aij ) est˜ao na reuni˜ao dos
c´ırculos de centro aii e raio
ri =
Xn
j=1
j6=i
|aij | , i = 1, 2,. .. ,n ,
no plano complexo.
b) Segundo Teorema de Gerschgorin - Se a uni˜ao de q desses c´ırculos formam uma regi˜ao conectada,
isolada dos c´ırculos restantes, ent˜ao existe q auto-valores nessa regi˜ao.
Prova: A prova deste teorema pode ser encontrada em [Wilkison, 1965].
CAP´ITULO 1. CONCEITOS BASICOS ´ 29
Exemplo 1.24 - Localizar, usando o teorema de Gerschgorin, os auto-valores de:
A =
4 −1 1
1 1 1
−2 0 −6
, B =
3 1 0
1 2 −1
0 −1 0
.
Solu¸c˜ao: Os c´ırculos de Gerschgorin associados com a matriz A s˜ao dados por:
C´ırculo Centro Raio
C1 a11 = 4 r1 = | − 1| + |1| = 2
C2 a22 = 1 r2 = |1| + |1| = 2
C3 a33 = −6 r3 = | − 2| + |0| = 2
Assim para a matriz A, obtemos os c´ırculos ilustrados na Figura 1.5:
C3 C2 C1
2 ✒
❅
❅
■❅ 2
2 ✒
4
✻
eixo
imagin´ario
−6 1 eixo
real
✲
Figura 1.5
O primeiro teorema de Gerschgorin indica que os auto-valores de A est˜ao inseridos nas regi˜oes hachuradas
da Figura 1.5. Al´em disso, desde que C1
S
C2 n˜ao intercepta C3, pelo segundo teorema de
Gerschgorin, dois desses auto-valores est˜ao em C1
S
C2 e os restantes dos auto-valores em C3.
Para a matriz B, temos que os c´ırculos de Gerschgorin associados com essa matriz, s˜ao dados por:
C´ırculo Centro Raio
C1 b11 = 3 r1 = |1| + |0| = 1
C2 b22 = 2 r2 = |1| + | − 1| = 2
C3 b33 = 0 r3 = |0| + | − 1| = 1
os quais est˜ao ilustrados na Figura 1.6.
0
C3
C2
C1
1
2
1 ❅❅
■ ❅
❅
■❅
❅❅
■
✻
2 3
Figura 1.6
✲
Podemos afirmar neste caso, usando os teoremas de Gerschgorin, que os auto-valores da matriz B
est˜ao no intervalo [−1, 4], pois a matriz ´e real e sim´etrica.
CAP´ITULO 1. CONCEITOS BASICOS ´ 30
Exerc´ıcios
1.27 - Dada as seguintes matrizes:
A =
1 2
3 4
, B =
1 2 −1
−1 0 1
2 1 −1
,
calcule o polinˆomio caracter´ıstico, seus auto-valores e auto-vetores.
1.28 - Seja A =
1 2
3 2
. Calcule os auto-valores de A,A2
,A3
.
1.29 - Seja A =
1 2
2 −1
. Calcular P(A) e Q(A), sabendo que: P(t) = 2t
2 − 3t + 7 e
Q(t) = t
2 − 5.
1.6 Exerc´ıcios Complementares
1.30 - Se x = (1, 2, 3, 4)t
e y = (0, 3, −2, 1)t
, calcule:
a) (x,y) (usando defini¸c˜ao usual de produto escalar),
b) k x k e k y k,
1.31 - Mostre que num espa¸co euclidiano vale o Teorema de Pit´agoras, isto ´e:
x ⊥ y =⇒ k x + y k
2 = k x k
2 + k y k
2
.
1.32 - Mostre que num espa¸co euclidiano, vale:
| k x k − k y k | ≤ k x − y k .
1.33 - Sejam x = (x1, x2)
t
e y = (y1,y2)
t
vetores do IR2
.
a) Prove que:
(x, y) = x1 y1 − 2 x1 y2 − 2 x2 y1 + 5 x2 y2 ,
define um produto escalar no IR2
. .
b) Determine a norma de x = (1, 2)t ∈ IR2
, em rela¸c˜ao ao produto escalar do item a).
1.34 - Os vetores {(1, 1, 0)t
,(0, 1, 1)t
,(1, 0, 1)t} constituem uma base n˜ao ortonormal do IR3
.
Construir a partir desses vetores, uma base ortonormal para o IR3
, usando o processo de Gram-Schmidt.
1.35 - Obter, no intervalo [0, 1], uma sequˆencia ortonormal de polinˆomios, relativamente ao produto
escalar.:
(f,g) = Z 1
0
f(x) g(x) dx .
1.36 - Considere o espa¸co dos polinˆomios de grau ≤ 2 com o produto escalar:
(Pi
,Pj ) = Z 1
0
Pi(t) Pj (t) dt .
Dada nesse espa¸co a base {3, t − 3, t2 − t}, obtenha a partir dela uma base ortogonal, usando o
processo de Gram-Schmidt.
CAP´ITULO 1. CONCEITOS BASICOS ´ 31
1.37 - Sejam e1, e2, e3 a base canˆonica do IR3
, e seja v = (1, 1, 2)t
. Determinar a proje¸c˜ao ortogonal
de v sobre o plano {e1, e2}.
1.38 - Seja E = C[1, 2], com (f,g) = R 2
1
f(x)g(x)dx. Seja K1(x) o sub-espa¸co dos polinˆomios de grau
≤ 1. O conjunto {1, x} constitui uma base de K1(x). Determinar a proje¸c˜ao ortogonal de f(x) = e
x
sobre k1(x).
1.39 - Resolva o exerc´ıcio 1.24, usando para o sub-espa¸co a base ortogonal obtida no exerc´ıcio 1.36.
Compare os resultados.
1.40 - Para cada uma das matrizes:
A =
−2 5
1 −3
, A =
1 4 3
0 3 1
0 2 −1
,
encontre um polinˆomio que tenha a matriz como raiz.
1.41 - Seja A uma matriz quadrada de ordem n e sejam λ1,λ2, · · · ,λn seus auto-valores. Quais s˜ao
os auto-valores de A − qI onde q ´e uma constante e I ´e a matriz identidade?
1.42 - Mostre que se v ´e auto-vetor de A e de B ent˜ao v ´e auto-vetor de αA + βB, onde α, β s˜ao
escalares quaisquer.
1.43 - Mostre que uma matriz A e sua transposta At possuem o mesmo polinˆomio caracter´ıstico.
1.44 - Usando o Teorema 1.10, localizar os auto-valores das seguintes matrizes:
A =
2 −1 0
−1 2 −1
0 −1 1
, B =
4 0 1
−2 1 0
−2 0 1
.
...