0% acharam este documento útil (0 voto)
160 visualizações84 páginas

Álgebra Linear - Ana Carolina Boero

(1) O documento introduz o conceito de espaço vetorial através de uma definição formal e dez exemplos de conjuntos que satisfazem ou não as propriedades de um espaço vetorial. (2) Os exemplos que satisfazem as propriedades incluem conjuntos numéricos como R, R2 e Rn, além de conjuntos de funções, polinômios e matrizes. (3) A vantagem de definir espaços vetoriais é unificar diversos objetos matemáticos sob uma mesma estrutura, permitindo que teoremas deduzidos a

Enviado por

Pedregulho
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd
0% acharam este documento útil (0 voto)
160 visualizações84 páginas

Álgebra Linear - Ana Carolina Boero

(1) O documento introduz o conceito de espaço vetorial através de uma definição formal e dez exemplos de conjuntos que satisfazem ou não as propriedades de um espaço vetorial. (2) Os exemplos que satisfazem as propriedades incluem conjuntos numéricos como R, R2 e Rn, além de conjuntos de funções, polinômios e matrizes. (3) A vantagem de definir espaços vetoriais é unificar diversos objetos matemáticos sob uma mesma estrutura, permitindo que teoremas deduzidos a

Enviado por

Pedregulho
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd
Você está na página 1/ 84

Álgebra Linear

Ana Carolina Boero


CAPı́TULO 1

Espaços vetoriais

1. Espaços vetoriais

Nesta seção, introduziremos o conceito de espaço vetorial e daremos


exemplos de objetos que admitem (ou não) uma tal estrutura. Em seguida,
apresentaremos uma série de propriedades que decorrem imediatamente da
definição abaixo.

Definição 1.1. Um espaço vetorial1 é uma terna (V, , ), onde V é


um conjunto e tanto
: V ×V → V
(u, v) 7→ u  v
quanto
: R×V → V
(α, v) 7 → α v
são aplicações satisfazendo as seguintes condições:
(A1) (u  v)  w = u  (v  w), quaisquer que sejam u, v, w ∈ V ;
(A2) u  v = v  u, quaisquer que sejam u, v ∈ V ;
(A3) Existe um único 0V ∈ V tal que v  0V = v, para todo v ∈ V ;
(A4) Para cada v ∈ V , existe u ∈ V tal que v  u = 0V ;
(M1) (αβ) v = α (β v), quaisquer que sejam α, β ∈ R e v ∈ V ;
(M2) 1 v = v, para todo v ∈ V ;
(M3) α (u  v) = (α u)  (α v), quaisquer que sejam α ∈ R e u, v ∈ V ;
(M4) (α + β) v = (α v)  (β v), quaisquer que sejam α, β ∈ R e v ∈ V .

Exemplos.
(1) A terna (R, , ), onde R denota o conjunto dos números reais e  e
denotam, respectivamente, as operações usuais de adição e multiplicação
de números reais, é um espaço vetorial.

1
Mais precisamente, um espaço vetorial sobre R.

3
1. ESPAÇOS VETORIAIS 4

(2) A terna (R2 , , ) onde

R2 = {(x1 , x2 ) : x1 , x2 ∈ R},

(x1 , x2 )  (y1 , y2 ) = (x1 + y1 , x2 + y2 ) ∀(x1 , x2 ), (y1 , y2 ) ∈ R2


e
α (x1 , x2 ) = (αx1 , αx2 ) ∀α ∈ R ∀(x1 , x2 ) ∈ R2
é um espaço vetorial. Para provar esta afirmação, devemos mostrar que
os axiomas (A1)-(A4) e (M1)-(M4) estão satisfeitos. Sejam, portanto,
(x1 , x2 ), (y1 , y2 ), (z1 , z2 ) ∈ R2 e α, β ∈ R arbitrários.
(A1): ((x1 , x2 )  (y1 , y2 ))  (z1 , z2 ) = (x1 + y1 , x2 + y2 )  (z1 , z2 ) =
((x1 + x1 ) + z1 , (x2 + y2 ) + z2 ) = (x1 + (y1 + z1 ), x2 + (y2 + z2 )) =
(x1 , x2 )  (y1 + z1 , y2 + z2 ) = (x1 , x2 )  ((y1 , y2 )  (z1 , z2 )).
(A2): (x1 , x2 )  (y1 , y2 ) = (x1 + y1 , x2 + y2 ) = (y1 + x1 , y2 + x2 ) =
(y1 , y2 )  (x1 , x2 ).
(A3): (x1 , x2 )  (0, 0) = (x1 + 0, x2 + 0) = (x1 , x2 ), qualquer que seja
(x1 , x2 ) ∈ R2 . A unicidade decorre da unicidade do elemento
neutro de R.
(A4): (x1 , x2 )  (−x1 , −x2 ) = (x1 + (−x1 ), x2 + (−x2 )) = (0, 0).
(M1): (αβ) (x1 , x2 ) = ((αβ)x1 , (αβ)x2 ) = (α(βx1 ), α(βx2 )) = α
(βx1 , βx2 ) = α (β (x1 , x2 ).
(M2): 1 (x1 , x2 ) = (1x1 , 1x2 ) = (x1 , x2 ).
(M3): α ((x1 , x2 )(y1 , y2 )) = α (x1 +y1 , x2 +y2 ) = (α(x1 +y1 ), α(x2 +
y2 )) = (αx1 + αy1 , αx2 + αy2 ) = (αx1 , αx2 )  (αy1 , αy2 ) =
(α (x1 , x2 ))  (α (y1 , y2 )).
(M4): (α + β) (x1 , x2 ) = ((α + β)x1 , (α + β)x2 ) = (αx1 + βx1 , αx2 +
βx2 ) = (αx1 , αx2 )  (βx1 , βx2 ) = (α (x1 , x2 ))  (β (x1 , x2 )).
(3) Seja n ≥ 1 um número natural. De modo geral, a terna (Rn , , ) onde

Rn = {(x1 , ..., xn ) : x1 , ..., xn ∈ R},

(x1 , ..., xn )  (y1 , ..., yn ) = (x1 + y1 , ..., xn + yn ) ∀(x1 , ..., xn ), (y1 , ..., yn ) ∈ Rn
e

α (x1 , ..., xn ) = (αx1 , ..., αxn ) ∀α ∈ R ∀(x1 , ..., xn ) ∈ Rn

é um espaço vetorial. Deixamos a verificação dos axiomas (A1)-(A4) e


(M1)-(M4) como exercı́cio.
1. ESPAÇOS VETORIAIS 5

(4) A terna (C, , ), onde

C = {a + bi : a, b ∈ R}

denota o conjunto dos números complexos,

a + bi  c + di = (a + c) + (b + d)i ∀a + bi, c + di ∈ C

e
α a + bi = αa + (αb)i ∀α ∈ R ∀a + bi ∈ C
é um espaço vetorial. Deixamos a verificação dos axiomas (A1)-(A4) e
(M1)-(M4) como exercı́cio.
(5) A terna (Mm×n (R), , ), onde
  

 a 11 . . . a1n 

. .
  
Mm×n (R) =  .  . .
.  : a11 , ..., a 1n , ..., a n1 , ..., a nn ∈ R
  

 a 
... a
n1 nn

denota o conjunto das matrizes m × n com coeficientes em R,


     
a11 . . . a1n b11 . . . b1n a11 + b11 . . . a1n + b1n
 . ..   . .   .. .. 
 .. .  .. ..
= . .
    
 
an1 . . . ann bn1 . . . bnn an1 + bn1 . . . ann + bnn
e    
a11 . . . a1n αa11 . . . αa1n
 . ..   . .. 
α  ..  .
 = .
.  . 

an1 . . . ann αan1 . . . αann
é um espaço vetorial. Deixamos a verificação dos axiomas (A1)-(A4) e
(M1)-(M4) como exercı́cio.
(6) A terna (Pn (R), , ) onde

Pn (R) = {an xn + ... + a1 x + a0 : a0 , ..., an ∈ R}

denota o conjunto dos polinômios em uma variável com coeficientes reais


de grau menor ou igual a n acrescido do polinômio nulo,

an xn +...+a1 x+a0 bn xn +...+b1 x+b0 = (an +bn )xn +...+(a1 +b1 )x+(a0 +b0 )

α an xn + ... + a1 x + a0 = (αan )xn + ... + (αa1 )x + (αa0 )

é um espaço vetorial. Deixamos a verificação dos axiomas (A1)-(A4) e


(M1)-(M4) como exercı́cio.
1. ESPAÇOS VETORIAIS 6

(7) A terna (P (R), , ), onde

P (R) = {an xn + ... + a1 x + a0 : a0 , ..., an ∈ R e n ∈ N}

denota o conjunto dos polinômios em uma variável com coeficientes reais,

an xn + ... + a1 x + a0  bm xm + ... + b1 x + b0 = ck xk + ... + c1 x + c0

onde k = max{n, m} e

 ai
 se m < i
ci = bi se n < i

ai + bi se m, n ≥ i

para i ∈ {0, ..., k} e

α an xn + ... + a1 x + a0 = (αan )xn + ... + (αa1 )x + (αa0 )

é um espaço vetorial. Deixamos a verificação dos axiomas (A1)-(A4) e


(M1)-(M4) como exercı́cio.
(8) Seja X um conjunto não vazio. Denotaremos por F(X, R) o conjunto
de todas as funções f : X → R. Consideremos
 : F(X, R) × F(X, R) → F(X, R)
(f, g) 7→ f g
onde
(f  g)(x) = f (x) + g(x) ∀x ∈ X
e
: R × F(X, R) → F(X, R)
(α, f ) 7→ α f
onde
(α f )(x) = αf (x) ∀x ∈ X.
A terna (F(X, R), , ) é um espaço vetorial. Deixamos a verificação
dos axiomas (A1)-(A4) e (M1)-(M4) como exercı́cio.2
(9) A terna (Q, , ), onde Q denota o conjunto dos números racionais, 
denota a operação usual de adição de números racionais e denota a
operação usual de multiplicação de um número racional por um número
real, não é um espaço vetorial. Com efeito, a multiplicação de um
número racional por um número real nem sempre é um número racional.3

2Observe que se X = n, então F(X, R) = Rn e que se X = m × n, então F(X, R) =


Mm×n (R).
3Por exemplo, √2 1=

2 6∈ Q.
1. ESPAÇOS VETORIAIS 7

(10) A terna (R2 , , ), onde

(a1 , a2 )  (b1 , b2 ) = (a1 + b1 , a2 + b2 )

e
α (a1 , a2 ) = (αa1 , a2 )
não é um espaço vetorial. De fato, temos que 2 (1, 2) = (2, 2).
Se (M4) fosse válido, deverı́amos ter 2 (1, 2) = (1 + 1) (1, 2) =
(1 (1, 2))  (1 (1, 2)) = (1, 2)  (1, 2) = (2, 4), o que não ocorre, pois
(2, 2) 6= (2, 4).
Os exemplos (1)-(8) mostram que o conceito de espaço vetorial permeia
áreas como álgebra, análise e geometria. A vantagem de unificar diversos
objetos em uma mesma definição — no caso, a de espaço vetorial — é que,
quando deduzimos um teorema a partir dos axiomas que a caracterizam,
este passa a valer para cada objeto concreto que a satisfaz.
No que segue, usaremos a palavra vetor para designar um elemento de
um espaço vetorial (V, , ).4 Em particular, 0V será denominado o vetor
nulo do espaço vetorial (V, , ). Os números reais serão chamados de
escalares e as aplicações  e serão chamadas de adição e multiplicação
por escalar, respectivamente.
Quando não houver risco à interpretação, representaremos o espaço
vetorial (V, , ) e seu vetor nulo 0V por V e 0, respectivamente. Por
comodidade, escreveremos + e · em vez de  e . Em muitas situações,
omitiremos o sı́mbolo · da multiplicação por escalar, passando a escrever αv
em vez de α · v.
Já vimos alguns exemplos de espaços vetoriais e alguns exemplos de
objetos que não são espaços vetoriais. Vamos, agora, começar a ver o que
pode ser deduzido a partir da definição de espaço vetorial (ou seja, vamos
ver algumas propriedades que todos os espaços vetoriais têm, independente
de sua definição particular).

Proposição 1.2. Se V é um espaço vetorial e v ∈ V , então 0v = 0.5

4Sendo assim, nos exemplos (1), (2), (3), (4), (5), (6), (7) e (8), a palavra vetor é,
respectivamente, sinônimo de número real, par ordenado de números reais, n-upla de
números reais, número complexo, matriz m × n com coeficientes em R, polinômio em uma
variável com coeficientes reais e grau menor ou igual a n, polinômio em uma variável com
coeficientes reais e, por fim, função com domı́nio X e contra-domı́nio R.
5Note que o 0 que aparece à esquerda na igualdade 0v = 0 é o número real 0, enquanto o
0 que aparece à direita é o vetor nulo.
1. ESPAÇOS VETORIAIS 8

Demonstração. Seja u ∈ V tal que 0v + u = 0. Note que a existência


(M4)
de um tal u é garantida por (A4). Temos que 0 = 0v + u = (0 + 0)v + u =
(A1) (A3)
(0v + 0v) + u = 0v + (0v + u) = 0v + 0 = 0v. 
Observe que a proposição 1.2 mostra como determinar o vetor nulo de um
espaço vetorial: basta multiplicar um vetor qualquer do espaço em questão
pelo escalar 0.

Definição 1.3. Sejam V um espaço vetorial e v ∈ V . Dizemos que


u ∈ V é oposto a v se v + u = 0.

Proposição 1.4. Sejam V um espaço vetorial e v ∈ V . Existe um único


u ∈ V tal que v + u = 0, o qual será denotado por −v.

Demonstração. A existência de um vetor oposto a u é garantida pelo


axioma (A4). Suponhamos que existam u, w ∈ V tais que v + u = 0 e
(A3) (A1) (A2)
v + w = 0. Temos que u = u + 0 = u + (v + w) = (u + v) + w =
(A2) (A3)
(v + u) + w = 0 + w = w + 0 = w. 
A próxima proposição indicará como encontrar o oposto de um vetor.

Proposição 1.5. Se V é um espaço vetorial e v ∈ V , então −1v = −v.6


(M2) (M4)
Demonstração. Temos que v + (−1v) = 1v + (−1v) = (1 +
(−1))v = 0v = 0. 
No que segue, escreveremos u − v para significar u + (−v).
Encerraremos esta seção mostrando que algumas regras operacionais
usadas em manipulações numéricas continuam valendo em um espaço
vetorial.

Proposição 1.6. Sejam V um espaço vetorial, α, β ∈ R e u, v, w ∈ V .


(i) −(−v) = v;
(ii) α0 = 0;
(iii) Se αv = 0, então α = 0 ou v = 0;
(iv) Se u + v = w + v, então u = w;
(v) (−α)v = α(−v) = −(αv);
(vi) Se αv = βv e v 6= 0, então α = β;

Demonstração.
6Observe que −1v denota a multiplicação do vetor v pelo escalar −1 e que −v denota o
vetor oposto a v.
2. COMBINAÇÕES LINEARES 9

(A2)
(i) Observe que −v + v = v + (−v) = 0. Logo, −(−v) = v.
(A3) (M3)
(ii) Temos que α0 = α(0 + 0) = α0 + α0. Somando o oposto de α0 a
ambos os membros da equação acima, obtemos α0 = 0.
(iii) Suponhamos que α 6= 0. Por hipótese, αv = 0. Logo, α−1 (αv) = α−1 0.
Da proposição 1.2 decorre que α−1 (αv) = 0. De (M1) segue que
(α−1 α)v = 0 e, portanto, 1v = 0. De (M2) concluı́mos que v = 0.
(iv) Por hipótese, u + v = w + v. Logo, (u + v) + (−v) = (w + v) + (−v). De
(A1) segue que u+(v+(−v)) = w+(v+(−v)) e, portanto, u+0 = w+0.
De (A3) decorre que u = w.
(M1)
(v) Temos que (−α)v = (α(−1))v = α(−1v) = α(−v). Além disso,
(M1)
temos que α(−v) = α(−1v) = (α(−1))v = ((−1)α)v = (−1)(αv) =
−(αv).
(vi) Como αv = βv, temos que αv + (−(βv)) = βv + (−(βv)). Assim,
αv + (−(βv)) = 0. De (v) segue que αv + (−β)v = 0 e de (M4) vem
que (α − β)v = 0. Como, por hipótese, v 6= 0, de (iii) decorre que
α − β = 0, ou seja, α = β. 

2. Combinações lineares

Definição 2.1. Sejam V um espaço vetorial e v, v1 , ..., vn ∈ V . Dizemos


que v é combinação linear de v1 , ..., vn se existem α1 , ..., αn ∈ R tais que
n
X
v= αi vi .
i=1

Exemplos.

(1) (1, 1, 1) ∈ R3 é combinação linear de {(2, 1, 3), (0, 5, 9), (1, 0, 1)} ⊂ R3 .
Com efeito, queremos encontrar α, β, γ ∈ R tais que

α(2, 1, 3) + β(0, 5, 9) + γ(1, 0, 1) = (1, 1, 1)

ou seja, tais que



 2α
 + γ = 1
α + 5β = 1

3α + 9β + γ = 1

Resolvendo o sistema acima, obtemos α = 9/4, β = −1/4 e γ = −14/4.


2. COMBINAÇÕES LINEARES 10

(2) 1 ∈ F(R, R) é combinação linear de {sin2 x, cos2 x} ⊂ F(R, R).7 De fato,


basta lembrar que sin2 x + cos2 x = 1, para todo x ∈ R.8
(3) x3 ∈ P (R) não é combinação linear de {1, x, x2 } ⊂ P (R). Observe que
não é possı́vel escrever um polinômio de grau 3 como combinação linear
de polinômios de graus menores ou iguais a 2.

Definição 2.2. Seja V um espaço vetorial. Dizemos que S ⊂ V é um


conjunto gerador de V (ou que S gera V ) se cada elemento de V for uma
combinação linear de uma quantidade finita de elementos de S.

Observe que todo espaço vetorial possui um subconjunto gerador —


a saber, ele próprio. Observamos ainda que se S é um subconjunto
gerador de V , então todo subconjunto de V que contém S também gera
V . Convencionaremos que ∅ gera {0}.
Exemplos.
(4) {(1, 2), (0, 1), (1, 1)} é um conjunto gerador de R2 . De fato, seja (a, b)
um elemento arbitrário de R2 . Queremos encontrar α, β, γ ∈ R tais que

(a, b) = α(1, 2) + β(0, 1) + γ(1, 1)

ou seja, tais que


(
α + γ = a
2α + β + γ = b
Observe que podemos escrever α e β em função de γ: α = a − γ e
β = −2a + b + γ. Fazendo, por exemplo, γ = 0, obtemos α = a e
β = −2a + b. Isto mostra que {(1, 2), (0, 1), (1, 1)} gera R2 .
Note que se fizéssemos γ = 1, terı́amos α = a − 1 e β = −2a = b + 1.
Logo, é possı́vel escrever (a, b) de mais de uma maneira como combinação
linear dos vetores (1, 2), (0, 1) e (1, 1).
(5) O conjunto {3, x + 1, x2 + 2} gera P2 (R). Com efeito, seja ax2 + bx + c
um elemento arbitrário de P2 (R). Devemos encontrar α, β, γ ∈ R tais

7Quando escrevemos 1 ∈ F(R, R), estamos nos referindo à função f : R → R dada por
f (x) = 1, qualquer que seja x ∈ R. Por conveniência, usaremos o sı́mbolo 1 em vez do
sı́mbolo f para representá-la.
8Observe que, para provar que duas funções são iguais, devemos mostrar que ambas têm
o mesmo domı́nio, o mesmo contra-domı́nio e a mesma lei de formação. Neste exemplo,
vemos que tanto a função 1 quanto a função sin2 + cos2 têm domı́nio e contra-domı́nio
iguais a R. Restou, portanto, mostrar que 1 = 1(x) = (sin2 + cos2 )(x) = sin2 (x) + cos2 (x),
para todo x ∈ R.
2. COMBINAÇÕES LINEARES 11

que
ax2 + bx + c = α3 + β(x + 1) + γ(x2 + 2)
ou seja, tais que

 3α + β + 2γ = c

β = b

γ = a

Resolvendo o sistema acima, obtemos


−2a − b + c
α= ,
3
β=b
e
γ = a.
Portanto, {3, x + 1, x2 + 2} é um conjunto gerador de P2 (R).
Perceba que se acrescentarmos um elemento qualquer de P2 (R) ao
conjunto gerador {3, x + 1, x2 + 2} — por exemplo, x2 + x — o conjunto
{3, x + 1, x2 + 2, x2 + x} obtido também será um gerador de P2 (R). De
fato, se ax2 + bx + c ∈ P2 (R), então
−2a − b + c
ax2 + bx + c = 3 + b(x + 1) + a(x2 + 2) + 0(x2 + x).
3
(6) {1, x, ..., xn , ...} é um conjunto gerador de P (R). Basta lembrar que todo
polinômio em uma variável com coeficientes reais é, por definição, uma
soma finita de monômios.
(7) O espaço vetorial M2 (R) não é gerado pelo conjunto
( ! ! !)
1 0 1 1 0 0
S= , , .
0 1 0 0 1 1
!
a b
Com efeito, recordamos que um vetor de M2 (R) é combinação
c d
linear dos elementos de S se existem α, β, γ ∈ R tais que
! ! ! !
a b 1 0 1 1 0 0
=α +β +γ
c d 0 1 0 0 1 1
3. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 12

o que implica 

 α+β = a

 β = b


 γ = c
α+γ = d

Em particular, devemos ter a = d. Sendo assim, o vetor


!
1 0
0 0
de M2 (R) não é combinação linear dos vetores de S. Logo, S não gera
M2 (R).

Definição 2.3. Dizemos que um espaço vetorial V é finitamente gerado


se V possui um conjunto gerador finito.

Observamos que R2 , P2 (R) e M2 (R) são exemplos de espaços vetoriais


finitamente gerados, enquanto P (R) é um espaço vetorial que não é
finitamente gerado.9

3. Dependência e independência linear

Em geral, um espaço vetorial possui muitos conjuntos geradores.


Embora {(1, 2), (0, 1), (1, 1)} seja um conjunto gerador de R2 , percebemos
que o vetor (1, 1) não acrescenta qualquer informação nova a este respeito
— afinal, o conjunto {(1, 2), (0, 1)} já era, por si só, capaz de gerar R2 . Na
busca de um conjunto gerador em que não existam vetores “supérfluos”,
chegamos aos conceitos de dependência e independência linear que serão
apresentados abaixo.

Definição 3.1. Seja V um espaço vetorial. Dizemos que S ⊂ V é


um subconjunto linearmente dependente de V se existem vetores distintos

9Note que para mostrar que um espaço vetorial é finitamente gerado, é suficiente exibir
um conjunto finito que o gera. Todavia, para mostrar que um dado espaço vetorial V
não é finitamente gerado, é preciso mostrar que nenhum subconjunto finito de V gera V .
Os exemplos (4) e (5) “testemunham”que R2 e P2 (R) são espaços vetoriais finitamente
gerados. Por sua vez, o fato de termos exibido um conjunto gerador infinito de P (R)
não garante que P (R) não seja finitamente gerado. Como acabamos de dizer, é preciso
mostrar que nenhum subconjunto finito de P (R) é capaz de gerar P (R). A idéia utilizada
no exemplo (3) para mostrar que x3 ∈ P (R) não é uma combinação linear de {1, x, x2 }
serve para mostrar que P (R) não é finitamente gerado.
3. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 13

v1 , ..., vn ∈ S e α1 , ..., αn ∈ R escalares não todos nulos tais que


n
X
αi vi = 0.
i=1

Observe que se S é um subconjunto linearmente dependente de V e


S ⊂ T ⊂ V , então T também é um subconjunto linearmente dependente
de V . Em particular, todo subconjunto de V que contém o vetor nulo é
linearmente dependente.
Exemplos.
(1) {(1, 1, 0, 0), (0, 1, 0, 0), (2, 1, 0, 0)} ⊂ R4 é linearmente dependente. De
fato,

−2(1, 1, 0, 0) + 1(0, 1, 0, 0) + 1(2, 1, 0, 0) = (0, 0, 0, 0).

(2) {1 − x, x − x2 , 2 − 2x} ⊂ P (R) é linearmente dependente. Para provar


esta afirmação, devemos encontrar escalares α, β, γ ∈ R não todos nulos
tais que
α(1 − x) + β(x − x2 ) + γ(2 − 2x) = 0
ou seja, tais que


 α + 2γ = 0
− α + β − 2γ = 0

− β = 0

Observe que α = 2, β = 0 e γ = −1 satisfazem as condições desejadas.


A próxima proposição caracteriza os subconjuntos linearmente
dependentes de um espaço vetorial: ela mostra que um subconjunto de um
espaço vetorial é linearmente dependente se, e somente se, contém um vetor
“supérfluo”.

Proposição 3.2. Seja V um espaço vetorial. Um subconjunto S de V é


linearmente dependente se, e somente se, existe v ∈ S tal que v é combinação
linear de uma quantidade finita de vetores de S \ {v}.

Demonstração. (⇒): Como S é linearmente dependente, existem


vetores distintos v1 , ..., vn ∈ S e α1 , ..., αn ∈ R escalares não todos nulos
tais que α1 v1 + ... + αn vn = 0. Podemos supor sem perda de generalidade
que α1 6= 0. Portanto,
α2 αn
v1 = − v2 − ... − vn .
α1 α1
Logo, v1 é combinação linear de uma quantidade finita de vetores de S \{v1 }.
3. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 14

(⇐): Sejam v ∈ S, v1 , ..., vn ∈ S \ {v} vetores distintos e α1 , ..., αn ∈ R


tais que
Xn
v= αi vi .
i=1
Temos que
n
X
1v + (−αi )vi = 0
i=1
e, portanto, S é linearmente dependente. 

Definição 3.3. Seja V um espaço vetorial. Dizemos que S ⊂ V é


um subconjunto linearmente independente de V se S não é linearmente
dependente. Em outras palavras, S é linearmente independente se, e
somente se,
Xn
αi vi = 0
i=1
implicar α1 = ... = αn = 0, quaisquer que sejam v1 , ..., vn ∈ S distintos.

Observe que se S é um subconjunto linearmente independente de V e


T ⊂ S, então T também é um subconjunto linearmente independente de V .
Observe, ainda, que ∅ é linearmente independente.10
Exemplos.
(1) {(1, 1, 0, 0), (0, 2, 1, 0), (0, 0, 0, 3)} ⊂ R4 é linearmente independente. De
fato, se α, β, γ ∈ R são tais que

α(1, 1, 0, 0) + β(0, 2, 1, 0) + γ(0, 0, 0, 3) = (0, 0, 0, 0)

então 

 α = 0

 α + 2β = 0


 β = 0
3γ = 0

o que implica α = β = γ = 0.
(2) {1, ex , e2x } ⊂ F([0, 1], R) é linearmente independente. Com efeito, sejam
α, β, γ ∈ R tais que

α1 + βex + γe2x = 0.

10De fato, se ∅ fosse linearmente dependente, existiriam vetores v , ..., v ∈ ∅ e escalares


1 n
α1 , ..., αn ∈ R não todos nulos tais que n
P
i=1 αi vi = 0. Observe que isto é absurdo, pois
∅ não possui elementos. Logo, ∅ não é linearmente dependente, o que implica que ∅ é
linearmente independente.
3. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 15

Derivando ambos os membros da equação acima, obtemos

ex (β + 2γex ) = 0.

Como ex 6= 0 para todo x ∈ R, concluı́mos que

β + 2γex = 0.

Derivando ambos os membros desta equação, chegamos a

2γex = 0

o que nos permite concluir que γ = 0. Substituindo γ = 0 na equação


β + 2γex = 0, chegamos a β = 0. Por fim, substituindo β = γ = 0 na
equação α1 + βex + γe2x = 0, obtemos α = 0.
(3) {fi : i ∈ N} ⊂ F(N, R) onde
(
1 se i=j
fi (j) =
0 se i 6= j
é linearmente independente. De fato, sejam i1 , ..., ik números naturais
arbitrários. Se α1 , ..., αk ∈ R são tais que

α1 fi1 + ... + αk fik = 0

e j ∈ {1, ..., k}, então

(α1 fi1 + ... + αk fik )(ij ) = 0

o que implica αj = 0.

A próxima proposição fornece uma condição necessária e suficiente


para que um subconjunto finito de um espaço vetorial seja linearmente
independente.

Proposição 3.4. Sejam V um espaço vetorial e v1 , ..., vn ∈ V vetores


distintos. O conjunto {v1 , ..., vn } é linearmente independente se, e somente
se, cada vetor de V se escreve no máximo de uma maneira como combinação
linear de v1 , ..., vn .

Demonstração. (⇒): Seja v ∈ V . Suponha que existam α1 , ..., αn ∈ R


e β1 , ..., βn ∈ R tais que
n
X n
X
αi vi = v = βi vi .
i=1 i=1
4. BASES 16

Assim,
n
X
(αi − βi )vi = 0.
i=1
Como {v1 , ..., vn } é linearmente independente, concluı́mos que α1 = β1 , ...,
αn = βn , o que significa que v não se escreve de duas maneiras distintas
como combinação linear de v1 , ..., vn . Logo, v se escreve no máximo de uma
maneira como combinação linear de v1 , ..., vn .
(⇐): Sabemos que 0 = 0v1 + ... + 0vn e, por hipótese, esta deve ser
a única maneira de escrever o vetor nulo de V como combinação linear de
v1 , ..., vn . Logo, {v1 , ..., vn } não pode ser linearmente dependente, o que
implica que {v1 , ..., vn } é linearmente independente. 

4. Bases

Seja V um espaço vetorial finitamente gerado. Conforme mencionamos,


estamos interessados em encontrar um conjunto gerador de V que não
contenha vetores “supérfluos”. A definição 2.2 e a proposição 3.4 nos dão
uma idéia de como deve ser um tal conjunto, ao qual daremos o nome de
base.

Definição 4.1. Seja V um espaço vetorial. Dizemos que B ⊂ V é uma


base de V se B é um subconjunto linearmente independente e gerador de V .

Exemplos.
(1) {e1 , ..., en } é uma base de Rn , onde ei é a n-upla que possui 1 na posição
i e 0 nas demais.
(2) {1, i} é uma base de C.
(3) {1, x, x2 , ..., xn } é uma base de Pn (R).
(4) {xn : n ∈ N} é uma base de P (R).
(5) {Eij : 1 ≤ i ≤ m, 1 ≤ j ≤ n} é uma base de Mm×n (R), onde Eij é a
matriz m × n que possui 1 na entrada ij e 0 nas demais.

Proposição 4.2. Sejam V um espaço vetorial e S um subconjunto finito


e gerador de V . Se R ⊂ S é um subconjunto linearmente independente de
V , então existe B uma base de V tal que R ⊂ B ⊂ S.

Demonstração. Seja I a coleção de todos os subconjuntos linearmente


independentes de V que contêm R e que estão contidos em S. Note que
I=6 ∅, uma vez que R ∈ I. Seja k = max{|A| : A ∈ I}, onde |A| denota a
quantidade de elementos de A. Fixemos B ∈ I tal que |B| = k.
4. BASES 17

Afirmamos que B é base de V . De fato, basta mostrar que se v ∈ S \ B,


então v é combinação linear dos vetores de B. Observe que se S\B = ∅, nada
temos a fazer. Suponhamos, portanto, que S \ B 6= ∅ e fixemos v ∈ S \ B.
Temos que S ∪ {v} é linearmente dependente. Logo, existem v1 , ..., vk ∈ S e
α, α1 , ..., αk ∈ R escalares não todos nulos tais que
k
X
αi vi + αv = 0.
i=1

Note que α 6= 0, pois B é linearmente independente. Portanto,


k
X −αi
v= vi . 
α
i=1

Corolário 4.3. Todo espaço vetorial finitamente gerado possui uma


base.

Demonstração. Seja V um espaço vetorial finitamente gerado.


Fixemos S um subconjunto finito e gerador de V e façamos R = ∅. Da
proposição 4.2 segue que existe B uma base de V tal que R ⊂ B ⊂ S. Logo,
V possui uma base. 

A demonstração do corolário 4.3 diz, na verdade, um pouco mais.

Corolário 4.4. Todo conjunto gerador de um espaço vetorial


finitamente gerado contém uma base.

Demonstração. Basta observar que se S̃ é um conjunto gerador de V ,


então existe S ⊂ S̃ finito tal que S gera V . 

Já vimos que todo espaço vetorial finitamente gerado possui uma base.
O próximo passo consiste de mostrar que quaisquer duas bases de um espaço
vetorial finitamente gerado têm a mesma quantidade de elementos. Com este
propósito, enunciamos (e provamos) a seguinte proposição, a qual garante
que num espaço vetorial finitamente gerado, não existem subconjuntos
linearmente independentes arbitrariamente grandes.

Proposição 4.5. Seja V um espaço vetorial. Se V possui um conjunto


gerador constituı́do de n vetores, então todo subconjunto de V com mais de
n elementos é linearmente dependente.

Demonstração. A proposição 4.5 está trivialmente verificada para


V = {0}. Suponhamos, portanto, que V 6= {0}.
4. BASES 18

Seja {v1 , ..., vn } um conjunto gerador de V e seja A = {u1 , ..., um } um


subconjunto de V tal que m > n. Vamos mostrar que A é linearmente
dependente.
Para cada k ∈ {1, ..., m} existem β1,k , ..., βn,k ∈ R tais que
n
X
uk = βi,k vi .
i=1

Queremos encontrar α1 , ..., αm ∈ R não todos nulos tais que


m
X
αk uk = 0.
k=1

Observe que
m
X m
X n
X n X
X m
αk uk = αk βi,k vi = αk βi,k vi .
k=1 k=1 i=1 i=1 k=1

Portanto, se mostrarmos que existem α1 , ..., αm ∈ R não todos nulos tais


que
Xm
αk βi,k = 0
k=1
para qualquer i ∈ {1, ..., n}, concluiremos que A é linearmente dependente.
Neste sentido, considere o sistema linear homogêneo

 β1,1 x1 + ... + β1,m xm = 0


.. .. ..
(∗) . . .


 β x + ... + β x = 0
n,1 1 n,m m

Como (∗) possui m incógnitas, n equações e m ≥ n, temos que (∗)


possui uma solução não trivial (α1 , ..., αm ), que é justamente o que
procurávamos. 

Corolário 4.6. Sejam V um espaço vetorial finitamente gerado e R


um subconjunto linearmente independente de V . Existe B uma base de V
tal que R ⊂ B.

Demonstração. Da proposição 4.5 segue que R é finito. Seja S̃ um


conjunto finito e gerador de V . Temos que S = S̃ ∪R também é um conjunto
finito e gerador de V . Como R ⊂ S, da proposição 4.2 decorre que existe B
uma base de V tal que R ⊂ B. 
4. BASES 19

A próxima proposição é usada para estender, na prática, um subconjunto


linearmente independente de um espaço vetorial finitamente gerado a uma
base do espaço vetorial em questão.

Proposição 4.7. Sejam V um espaço vetorial e v1 , ..., vn ∈ V vetores


distintos tais que {v1 , ..., vn } é linearmente independente. Se v ∈ V
não é combinação linear de v1 , ..., vn , então {v1 , ..., vn , v} é linearmente
independente.

Demonstração. Sejam α1 , ..., αn , α ∈ R tais que

α1 v1 + ... + αn vn + αv = 0.

Queremos mostrar que α1 = ... = αn = α = 0.


Começaremos provando que α = 0. De fato, se α 6= 0, então
−α1 −αn
v= v1 + ... + vn
α α
o que contradiz o fato de v não ser combinação linear dos vetores v1 , ..., vn .
Logo, α = 0.
Como α = 0, temos que α1 v1 + ... + αn vn = 0. Usando o fato de
{v1 , ..., vn } ser linearmente independente, concluı́mos que α1 = ... = αn = 0.
Portanto, {v1 , ..., vn , v} é linearmente independente. 

Uma outra conseqüência da proposição 4.5 é que a quantidade de


elementos de uma base de um espaço vetorial é um invariante do mesmo.

Corolário 4.8. Se V é um espaço vetorial finitamente gerado, então


quaisquer duas bases de V têm a mesma quantidade de elementos.

Demonstração. Como V é finitamente gerado, a proposição 4.5


garante que qualquer base de V é finita. Sejam, portanto, B e C bases de V
com m e n elementos, respectivamente. Temos que B é um conjunto gerador
de V e C é um subconjunto linearmente independente de V . Da proposição
4.5 segue que n ≤ m. Temos também que C é um conjunto gerador de V e
B é um subconjunto linearmente independente de V . Aplicando novamente
a proposição 4.5, obtemos m ≤ n. Logo, m = n. 

Definição 4.9. Seja V um espaço vetorial. Se V é finitamente gerado,


definimos a dimensão de V como sendo a quantidade de elementos de uma
base de V e escrevemos dim V para designá-la. Se V não é finitamente
gerado, dizemos simplesmente que V tem dimensão infinita.
4. BASES 20

Exemplos.
(1) dim Rn = n.
(2) dim C = 2.
(3) dim Pn (R) = n + 1.
(4) P (R) tem dimensão infinita.
(5) dim Mm×n (R) = mn.

Proposição 4.10. Seja V um espaço vetorial de dimensão finita n ≥ 1


e seja S um subconjunto de V com n elementos. As seguintes afirmações
são equivalentes:
(i) S é base de V ;
(ii) S é linearmente independente;
(iii) S gera V .

Demonstração.
(i) ⇒ (ii): Segue imediatamente da definição de base.
(ii) ⇒ (iii): Vamos escrever S = {v1 , ..., vn }. Se S não gera V ,
então existe v ∈ V que não é combinação linear de v1 , ..., vn .
Como S é linearmente independente, podemos aplicar a proposição
4.7 e concluir que {v1 , ..., vn , v} é um subconjunto linearmente
independente de V , o que é absurdo. De fato, como dim V = n,
sabemos que V possui uma base com n vetores o que, em particular,
significa que V possui um conjunto gerador constituı́do de n
vetores. Da proposição 4.5 segue que todo subconjunto linearmente
independente de V deve ter, no máximo, n elementos. Portanto,
{v1 , ..., vn , v} não poderia ser linearmente independente, já que tem
n + 1 elementos. De onde surgiu esta contradição? Da suposição
de que S não gera V . Logo, S gera V .
(iii) ⇒ (i): Da proposição 4.2 segue que existe B uma base de V tal
que ∅ ⊂ B ⊂ S. Se S 6= B, então B possui no máximo n − 1
elementos, o que é absurdo, já que dim V = n. Logo, S = B e,
portanto, S é base de V . 

A proposição 4.10 garante que se conhecermos previamente a dimensão


de um espaço vetorial finitamente gerado V 6= {0}, então teremos apenas
metade do trabalho que originalmente terı́amos para verificar que um
determinado subconjunto de V é base. Com efeito, se dim V = n, então
qualquer candidato a base de V deve ter exatamente n elementos e, de
5. SUBESPAÇOS 21

acordo com a proposição 4.10, para que um subconjunto S de V constituı́do


de n elementos seja uma base, é suficiente mostrar que S é linearmente
independente ou que S gera V .

5. Subespaços

Nesta seção, estudaremos um meio de obter novos espaços vetoriais a


partir de espaços vetoriais já conhecidos.
Definição 5.1. Seja (V, +, ·) um espaço vetorial. Dizemos que W ⊂ V
é um subespaço vetorial de V se seguintes condições estão satisfeitas:
(i) W 6= ∅;
(ii) Se w1 , w2 ∈ W , então w1 + w2 ∈ W ;
(iii) Se α ∈ R e w ∈ W , então αw ∈ W .
Observe que se W é um subespaço vetorial de um espaço vetorial V ,
então W necessariamente contém o vetor nulo de V . De fato, a condição
(i) da definição 5.1 assegura que W 6= ∅ e a condição (ii) da definição 5.1
garante que se w ∈ W , então 0 = 0w ∈ W .
Exemplos.
(1) Se V é um espaço vetorial, então {0} e V são subespaços vetoriais
de V .11
(2) Sejam V = R4 e W = {(x1 , x2 , x3 , x4 ) ∈ R4 : x4 = 0}.
Para mostrar que W é um subespaço vetorial de V , devemos
verificar que as condições (i), (ii) e (iii) da definição 5.1 estão
satisfeitas. Observe que (0, 0, 0, 0) ∈ W . Logo, W 6= ∅.
Se (x1 , x2 , x3 , x4 ), (y1 , y2 , y3 , y4 ) ∈ R4 , então (x1 , x2 , x3 , x4 ) +
(y1 , y2 , y3 , y4 ) = (x1 + y1 , x2 + y2 , x3 + y3 , x4 + y4 ) ∈ W , já que x4 =
y4 = 0 e, portanto, x4 +y4 = 0. Por fim, se α ∈ R e (x1 , x2 , x3 , x4 ) ∈
W , então α(x1 , x2 , x3 , x4 ) = (αx1 , αx2 , αx3 , αx4 ) ∈ W , já que
x4 = 0 e, portanto, αx4 = 0. Logo, W é um subespaço vetorial de
V.
(3) Sejam V = Mn (R) e W o conjunto das matrizes triangulares
superiores. Afirmamos que W é um subespaço vetorial de V e
deixamos a verificação das condições (i), (ii) e (iii) da definição 5.1
como exercı́cio.
(4) Sejam V = F([a, b], R) e W = C([a, b], R) o conjunto das funções
contı́nuas definidas no intervalo [a, b] a valores em R. Afirmamos
11Denominados subespaços vetoriais triviais de V .
5. SUBESPAÇOS 22

que W é um subespaço vetorial de V e deixamos a verificação das


condições (i), (ii) e (iii) da definição 5.1 como exercı́cio.
(5) Considere o sistema linear homogêneo


 a11 x1 + a12 x2 + ... + a1n xn = 0

 a21 x1 + a22 x2 + ... + a2n xn = 0

(∗) .. .. ..


 . . .

am1 x1 + am2 x2 + ... + amn xn = 0

Uma solução de (∗) é uma n-upla (α1 , ..., αn ) de números reais que
satisfaz nj=1 aij αj = 0, para todo i ∈ {1, ..., n}. Afirmamos que
P

o conjunto das soluções de (∗) é um subespaço vetorial de Rn e


deixamos a verificação das condições (i), (ii) e (iii) da definição 5.1
como exercı́cio.
(6) Sejam V = R2 e W uma reta que não passa pela origem. Observe
que W não é subespaço vetorial de V . De fato, (0, 0) 6∈ W .
(7) Sejam V = R2 e W = {(x, x2 ) : x ∈ R}. Observe que W
não é subespaço vetorial de V . Com efeito, (1, 1) ∈ W , mas
(1, 1) + (1, 1) = (2, 2) 6∈ W .
(8) Sejam V = Mn (R) e W o conjunto de todas as matrizes (aij )1≤i,j≤n
com a11 ≤ 0. Observe que W não é subespaço vetorial de V . De
fato, se (aij )1≤i,j≤n ∈ W , então −1(aij )1≤i,j≤n 6∈ W .

Proposição 5.2. Sejam (V, +, ·) um espaço vetorial e W um subespaço


vetorial de V . A terna (W, , ), onde  : W × W → W é dada por

w1  w2 = w1 + w2 ∀w1 , w2 ∈ W

e : R × W → W é dada por

α w = α · w ∀α ∈ R ∀w ∈ W

é um espaço vetorial.12

Demonstração. Observe que as condições (A1), (A2), (M1), (M2),


(M3) e (M4) valem para (W, , ), pois valem para (V, +, ·). Como o vetor
nulo de V pertence a W , sabemos que existe 0 ∈ W tal que w + 0 = w,
qualquer que seja w ∈ W . Se v ∈ W é tal que w + v = w, qualquer que seja
(A2)
w ∈ W , então 0 = 0 + v = v + 0 = v. Portanto, (A3) está verificada. Por

12Observe que  coincide com + nos pares ordenados de elementos de W e que coincide
com · nos elementos de R × W .
5. SUBESPAÇOS 23

fim, temos que se w ∈ W , então −1w = −w ∈ W . Logo, (A4) também está


verificada. 

Proposição 5.3. Sejam V um espaço vetorial e S um subconjunto não


vazio de V . O conjunto de todas as combinações lineares de elementos de S
é um subespaço vetorial de V .

Demonstração. Por hipótese, S 6= ∅. Se tomarmos v ∈ S, observamos


que 1v é uma combinação linear de elementos de S. Portanto, o conjunto
de todas as combinações lineares de elementos de S é não vazio. Se
Pn Pm
i=1 αi ui e i=1 βi vi são combinações lineares de elementos de S e α ∈ R,
então i=1 αi ui + m
Pn P
βi vi é uma combinação linear de elementos de S e
Pn Pn i=1
α i=1 αi ui = i=1 (ααi )ui também é uma combinação linear de elementos
de S. Logo, o conjunto de todas as combinações lineares de elementos de S
é um subespaço vetorial de V . 

Definição 5.4. Sejam V um espaço vetorial e S um subconjunto de


V . Denotaremos por [S] o conjunto de todas as combinações lineares de
elementos de S e diremos que [S] é o subespaço de V gerado por S.13

Evidentemente, S é um conjunto gerador de [S]. Em particular, se S é


linearmente independente, então S é uma base de [S].

Proposição 5.5. Sejam V um espaço vetorial e S um subconjunto de


V . Temos que S = [S] se, e somente se, S é um subespaço vetorial de V .

Demonstração. (⇒): Por hipótese, S = [S]. De acordo com a


proposição 5.3, [S] é um subespaço vetorial de V . Logo, S é um subespaço
vetorial de V .
(⇐): Queremos mostrar que S = [S]. Observe que S ⊂ [S], uma vez
que se u ∈ S, então u = 1u ∈ [S]. Resta mostrar que [S] ⊂ S. Como
S é um subespaço vetorial de V , temos que qualquer combinação linear de
elementos de S pertence a S. Portanto, [S] ⊂ S. 
A próxima proposição mostra que se V é um espaço vetorial e S é um
subconjunto de V , então [S] é o menor subespaço vetorial de V que contém
S.14

Proposição 5.6. Sejam V um espaço vetorial e S um subconjunto de


V . Se W é um subespaço vetorial de V tal que S ⊂ W , então [S] ⊂ W .
13Se S = {v , ..., v }, escreveremos [S] = [v , ..., v ] em vez de [S] = [{v , ..., v }].
1 n 1 n 1 n
14Com respeito à ordem da inclusão.
5. SUBESPAÇOS 24

Demonstração. Sejam v1 , ..., vn ∈ S e α1 , ..., αn ∈ R. Como S ⊂ W ,


temos que v1 , ..., vn ∈ W . Do fato de W ser um subespaço vetorial de V ,
decorre que ni=1 αi vi ∈ W . Logo, [S] ⊂ W .
P


5.1. Intersecções e somas de subespaços.

Definição 5.7. Seja V um espaço vetorial e sejam W1 e W2 subespaços


vetoriais de V . O conjunto

W1 ∩ W2 = {v ∈ V : v ∈ W1 e v ∈ W2 }

é denominado a intersecção de W1 e W2 .

Proposição 5.8. Sejam W1 e W2 subespaços vetoriais de um espaço


vetorial V . A intersecção de W1 e W2 é um subespaço vetorial de V .

Demonstração. Como W1 e W2 são subespaços vetoriais de V , temos


que 0 ∈ W1 e 0 ∈ W2 . Logo, 0 ∈ W1 ∩W2 . Sejam u, v ∈ W1 ∩W2 . Temos que
u, v ∈ W1 e u, v ∈ W2 . Como W1 é um subespaço vetorial de V , segue que
u + v ∈ W1 . Como W2 é um subespaço vetorial de V , segue que u + v ∈ W2 .
Logo, u + v ∈ W1 ∩ W2 . Por fim, sejam α ∈ R e u ∈ W1 ∩ W2 . Temos
que u ∈ W1 e u ∈ W2 . Como W1 é um subespaço vetorial de V , segue que
αu ∈ W1 . Como W2 é um subespaço vetorial de V , segue que αu ∈ W2 .
Portanto, αu ∈ W1 ∩ W2 . Logo, W1 ∩ W2 é um subespaço vetorial de V . 

Exemplos.
(1) Seja V = R2 e sejam W1 e W2 retas que passam pela origem. Temos
que W1 ∩ W2 = {(0, 0)}.
(2) Sejam V = M2 (R), W1 o subespaço vetorial de V constituı́do das
matrizes triangulares superiores e W2 o subespaço vetorial de V
constituı́do das matrizes triangulares inferiores. Temos que W1 ∩ W2
é o subespaço vetorial de V constituı́do das matrizes diagonais.
Uma vez que a intersecção de dois subespaços é ainda um subespaço,
poderı́amos pensar que o mesmo ocorre com a união. O próximo exemplo
mostra, contudo, que isto não acontece.
Exemplo.
(3) Sejam V = R2 , W1 = {(x, x) : x ∈ R} e W2 = {(x, 2x) : x ∈ R}. Observe
que (1, 1) ∈ W1 , (1, 2) ∈ W2 , mas que (1, 1) + (1, 2) = (1, 3) 6∈ W1 ∪ W2 .
Logo, W1 ∪ W2 não é um subespaço vetorial de V .
5. SUBESPAÇOS 25

Definição 5.9. Seja V um espaço vetorial e sejam W1 e W2 subespaços


vetoriais de V . O conjunto

W1 + W2 = {v ∈ V : ∃w1 ∈ W1 ∃w2 ∈ W2 tais que v = w1 + w2 }

é denominado a soma de W1 e W2 .

Proposição 5.10. Sejam W1 e W2 subespaços vetoriais de um espaço


vetorial V . A soma de W1 e W2 é um subespaço vetorial de V .

Demonstração. Como W1 e W2 são subespaços vetoriais de V , temos


que 0 ∈ W1 e 0 ∈ W2 . Logo, 0 = 0 + 0 ∈ W1 + W2 . Sejam u, v ∈ W1 + W2 .
Temos que u = u1 +u2 e v = v1 +v2 , onde u1 , v1 ∈ W1 e u2 , v2 ∈ W2 . Assim,
u + v = (u1 + u2 ) + (v1 + v2 ) = u1 + u2 + v1 + v2 = u1 + v1 + u2 + v2 =
(u1 + v1 ) + (u2 + v2 ) ∈ W1 + W2 . Por fim, se α ∈ R e u ∈ W1 + W2 , existem
u1 ∈ W1 e u2 ∈ W2 tais que u = u1 + u2 . Temos que αu = α(u1 + u2 ) =
αu1 + αu2 ∈ W1 + W2 . 

Exemplos.
(4) Sejam V = R2 , W1 = {(x, x) : x ∈ R} = [(1, 1)] e W2 = {(x, 2x) : x ∈
R} = [(1, 2)]. Observe que V = W1 + W2 e que W1 ∩ W2 = {(0, 0)}.
(5) Sejam V = M2 (R), W1 o subespaço vetorial de V constituı́do das
matrizes triangulares superiores e W2 o subespaço vetorial de V
constituı́do das matrizes triangulares inferiores. Note que V = W1 + W2
e que W1 ∩ W2 é o subespaço vetorial de V constituı́do das matrizes
diagonais.
A próxima proposição mostra que a soma de dois subespaços vetoriais
de um espaço vetorial V é o menor subespaço de V que contém a união dos
subespaços vetoriais em questão.

Proposição 5.11. Sejam V um espaço vetorial e sejam W1 e W2


subespaços vetoriais de V . Temos que W1 + W2 = [W1 ∪ W2 ].

Demonstração. Observe que W1 ⊂ W1 + W2 e que W2 ⊂ W1 + W2 .


Logo, W1 ∪ W2 ⊂ W1 + W2 . Como W1 + W2 é um subespaço vetorial de V ,
da proposição 5.6 decorre que [W1 ∪ W2 ] ⊂ W1 + W2 . Reciprocamente, se
u ∈ W1 + W2 , então existem u1 ∈ W1 e u2 ∈ W2 tais que u = w1 + w2 . Note
que u é, portanto, uma combinação linear de elementos de W1 ∪ W2 . Logo,
u ∈ [W1 ∪ W2 ]. Portanto, W1 + W2 = [W1 ∪ W2 ]. 
5. SUBESPAÇOS 26

O próximo resultado relaciona a dimensão da soma de dois subespaços


vetoriais W1 e W2 de um espaço vetorial (finitamente gerado) com a
dimensão de W1 , W2 e W1 ∩ W2 .

Proposição 5.12. Seja V um espaço vetorial e sejam W1 e W2


subespaços de V de dimensão finita. Então

dim(W1 + W2 ) = dim W1 + dim W2 − dim(W1 ∩ W2 ).

Demonstração. Seja {u1 , ..., uk } uma base de W1 ∩ W2 . Podemos


estendê-la a uma base {u1 , ..., uk , v1 , ..., vm } de W1 e também podemos
estendê-la a uma base {u1 , ..., uk , w1 , ..., wn } de W2 . Se mostrarmos que
{u1 , ..., uk , v1 , ..., vm , w1 , ..., wn } é uma base de W1 + W2 , a proposição está
demonstrada.
Seja u + v ∈ W1 + W2 . Como u ∈ W1 , existem α1 , ..., αk , β1 , ..., βm ∈
Pk Pm
R tais que u = i=1 αi ui + j=1 βj vj . Como v ∈ W2 , existem
Pk Pn
γ1 , ..., γk , δ1 , ..., δn ∈ R tais que v = i=1 γi ui + l=1 δl vl . Logo,
Pk Pm Pn
u + v = i=1 (αi + γi )ui + j=1 βj vj + l=1 δl vl . Isto mostra que
{u1 , ..., uk , v1 , ..., vm , w1 , ..., wn } gera W1 + W2 .
Pk
Sejam α1 , ..., αk , β1 , ..., βm , δ1 , ..., δn ∈ R tais que i=1 αi ui +
Pm Pn
j=1 βj vj + l=1 δl wl = 0. Temos que
k
X m
X n
X
αi ui + βj vj = − δ l wl .
i=1 j=1 l=1
| {z } | {z }
∈W1 ∈W2

Logo,
n
X
δl wl ∈ W1 ∩ W2
l=1
o que implica que existem γ1 , ..., γk ∈ R tais que
n
X k
X
δ l wl = γi ui
l=1 i=1

ou seja,
n
X k
X
δl wl − γi ui = 0.
l=1 i=1
5. SUBESPAÇOS 27

Como {u1 , ..., uk , w1 , ..., wn } é base de W2 , concluı́mos que δ1 = ... = δn =


γ1 = ... = γk = 0. Portanto, temos que
k
X m
X
αi ui + βj vj = 0.
i=1 j=1

Uma vez que {u1 , ..., uk , v1 , ..., vm } é base de W1 segue que α1 = ... = αk =
β1 = ... = βm = 0. Logo, {u1 , ..., uk , v1 , ..., vm , w1 , ..., wn } é linearmente
independente. 

Definição 5.13. Seja V um espaço vetorial e sejam W1 e W2 subespaços


vetoriais de V . Se W1 ∩ W2 = {0}, dizemos que W1 + W2 é a soma direta
de W1 e W2 e escrevemos W1 ⊕ W2 .

Corolário 5.14. Seja V um espaço vetorial e sejam W1 e W2


subespaços vetoriais de V de dimensão finita tais que W1 ∩W2 = {0}. Então

dim(W1 ⊕ W2 ) = dim W1 + dim W2 .

Demonstração. Basta observar que dim{0} = 0. 

Definição 5.15. Seja V um espaço vetorial. Se W1 e W2 são subespaços


vetoriais de V tais que V = W1 ⊕ W2 , dizemos que W1 e W2 são
complementares.15

A próxima proposição garante que todo subespaço vetorial de um espaço


vetorial finitamente gerado admite um complementar.

Proposição 5.16. Sejam V um espaço vetorial finitamente gerado e


W1 um subespaço vetorial de V . Existe W2 um subespaço vetorial de V tal
que V = W1 ⊕ W2 .

Demonstração. Se W1 = V , então V = W1 ⊕ W2 para W2 = {0}.


Se W1 = {0}, então V = W1 ⊕ W2 para W2 = V . Suponhamos que
{0} $ W1 $ V e consideremos {u1 , .., um } uma base de W1 . Sabemos
que existem v1 , ..., vn ∈ V tais que {u1 , ..., um , v1 , ..., vn } é uma base de V .
Definamos W2 = [v1 , ..., vn ].
Se v ∈ V , então existem α1 , ..., αm , β1 , ..., βn ∈ R tais que
m
X n
X
v= αi ui + β j vj .
i=1 j=1
| {z } | {z }
∈W1 ∈W2

15Também é usual dizer que W é complementar de W e que W é complementar de W .


1 2 2 1
5. SUBESPAÇOS 28

Logo, V = W1 + W2 . Além disso, se v ∈ W1 ∩ W2 , existem α1 , ..., αm ∈ R


tais que v = m
P Pn
i=1 αi ui e existem β1 , ..., βn ∈ R tais que v = j=1 βj uj .
Pm Pn Pm Pn
Logo, i=1 αi ui = j=1 βj uj , ou seja, i=1 αi ui + j=1 (−βj )uj = 0.
Como {u1 , ..., um , v1 , ..., vn } é linearmente independente, segue que α1 =
... = αm = β1 = ... = βn = 0. Portanto, v = 0. 

Suponha que V = W1 ⊕ W2 . Se W é um subespaço vetorial de V , não


é necessariamente verdade que W = (W ∩ W1 ) ⊕ (W ∩ W2 ), como mostra o
exemplo abaixo.
Exemplo.
(1) Sejam V = R2 , W1 = [(1, 0)], W2 = [(0, 1)] e W = [(1, 1)]. Note que
W ∩ W1 = {(0, 0)} e W ∩ W2 = {(0, 0)}. Logo, (W ∩ W1 ) ⊕ (W ∩ W2 ) =
{(0, 0)} =
6 W.

Proposição 5.17. Seja V um espaço vetorial e sejam W1 e W2


subespaços vetoriais de V . Temos que V = W1 ⊕ W2 se, e somente se, cada
vetor v ∈ V se escreve de modo único como v = w1 + w2 , onde w1 ∈ W1 e
w2 ∈ W 2 .

Demonstração. (⇒): Como V = W1 + W2 , cada vetor de V se


escreve como soma de um elemento de W1 com um elemento de W2 . Seja
v ∈ V e suponha que existam w1 , w̃1 ∈ W1 e w2 , w̃2 ∈ W2 tais que
v = w1 + w2 = w̃1 + w̃2 . Temos que

w1 − w̃1 = w̃2 − w2 .
| {z } | {z }
∈W1 ∈W2

Logo, w1 − w̃1 ∈ W1 ∩ W2 e w̃2 − w2 ∈ W1 ∩ W2 . Como W1 ∩ W2 = {0},


concluı́mos que w1 = w̃1 e w2 = w̃2 . Portanto, cada vetor de V se escreve
de modo único como soma de um elemento de W1 com um elemento de W2 .
(⇐): Como cada vetor de V se escreve como soma de um elemento de
W1 com um elemento de W2 temos que V = W1 + W2 . Seja v ∈ V e sejam
w1 ∈ W1 e w2 ∈ W2 tais que v = w1 + w2 . Se u ∈ W1 ∩ W2 , então

v = (w1 + u) + (w2 − u) .
| {z } | {z }
∈W1 ∈W2

Como cada vetor de V se escreve de modo único como soma de um elemento


de W1 com um elemento de W2 , temos que u = 0. Logo, W1 ∩ W2 = {0} e,
portanto, V = W1 ⊕ W2 . 
6. COORDENADAS 29

6. Coordenadas

Nesta seção, veremos uma maneira de identificar um espaço vetorial de


dimensão n com o Rn .

Proposição 6.1. Seja V um espaço vetorial finitamente gerado. As


seguintes afirmações são equivalentes:
(i) B é uma base de V ;
(ii) Cada elemento de B se escreve de modo único como combinação linear
de uma quantidade finita de elementos de B.

Demonstração. Decorre imediatamente da definição 4.1 e da


proposição 3.4. 

Definição 6.2. Seja V um espaço vetorial finitamente gerado. Uma


base ordenada de V é uma base de V em que a ordem dos elementos está
fixada.16

Definição 6.3. Sejam V um espaço vetorial finitamente gerado, B =


{v1 , ..., vn } uma base ordenada de V e v ∈ V . Definimos as coordenadas
de v com respeito à base ordenada B como a única n-upla (α1 , ..., αn ) de
números reais tal que v = α1 v1 +...+αn vn . Escreveremos [v]B = (α1 , ..., αn ).

Exemplo.
(1) Sejam V = R2 e B1 = {(1, 0), (0, 1)}, B2 = {(0, 1), (1, 0)} e B3 =
{(1, 0), (1, 1)} bases ordenadas de V . Temos que [(2, 3)]B1 = (2, 3),
[(2, 3)]B2 = (3, 2) e [(2, 3)]B3 = (−1, 3). De fato, (2, 3) = 2(1, 0)+3(0, 1),
(2, 3) = 3(0, 1) + 2(1, 0) e (2, 3) = −1(1, 0) + 3(1, 1).

Proposição 6.4. Sejam V um espaço vetorial finitamente gerado e


B = {v1 , ..., vn } uma base ordenada de V . A aplicação
cB : V → Rn
v 7 → [v]B
é bijetora e satisfaz as seguintes condições:
(i) cB (u + v) = cB (u) + cB (v), quaisquer que sejam u, v ∈ V ;
(ii) cB (αv) = αcB (v), qualquer que seja α ∈ R e qualquer que seja v ∈ V .

16Em outras palavras, uma base ordenada de V é uma n-upla (v , ..., v ) de vetores de V
1 n
tal que {v1 , ..., vn } é uma base de V . Por comodidade, escreveremos {v1 , ..., vn } em vez
de (v1 , ..., vn ) para denotar uma base ordenada de V .
6. COORDENADAS 30

Demonstração. Se u, v ∈ V são tais que [u]B = (α1 , ..., αn ) = [v]B ,


Pn
então u = i=1 αi vi = v. Logo, cB é injetora. Por outro lado, se
n
Pn
(α1 , ..., αn ) ∈ R , então v = i=1 αi vi é tal que [v]B = (α1 , ..., αn ).
Portanto, cB é sobrejetora.
Vamos mostrar que (i) está satisfeita. Para tanto, sejam u, v ∈ V .
Pn
Se [u]B = (α1 , ..., αn ) e [v]B = (β1 , ..., βn ), então u = i=1 αi vi e
Pn Pn
v = i=1 βi vi . Logo, u + v = i=1 (αi + βi )vi e, portanto, [u + v]B =
(α1 + β1 , ..., αn + βn ). Assim, cB (u + v) = cB (u) + cB (v).
Encerraremos a demonstração mostrando que (ii) está satisfeita. Sejam
Pn
α ∈ R e v ∈ V . Se [v]B = (α1 , ..., αn ), então v = i=1 αi vi . Logo,
Pn
αv = i=1 (ααi )vi e, portanto, [αv]B = (αα1 , ..., ααn ). Assim, cB (αv) =
αcB (v). 

Definição 6.5. Sejam V um espaço vetorial finitamente gerado e


B = {v1 , ..., vn } uma base ordenada de V . A aplicação cB definida na
proposição 6.4 é denominada sistema de coordenadas de V em relação à
base ordenada B.

6.1. Mudança de coordenadas. Considere a seguinte situação: V =


R2 ,B = {(2, −1), (3, 4)} e C = {(1, 0), (0, 1)} são bases ordenadas de V . Se
v ∈ R2 é tal que [v]C = (5, −8), desejamos calcular [v]B . Uma maneira de
fazer isso é “recuperar”o vetor v a partir de suas coordenadas na base C e,
em seguida, escrevê-lo como combinação linear dos vetores da base B. De
fato, como [v]C = (5, −8), temos que v = 5(1, 0) − 8(0, 1). Logo, v = (5, −8).
Queremos determinar α e β números reais tais que v = α(2, −1) + β(3, 4).
Para isto, precisamos resolver o sistema
(
2α + 3β = 5
−α + 4β = −8
Como obtemos α = 4 e β = −1, segue que [v]B = (4, −1).
Se quiséssemos determinar as coordenadas na base ordenada C de uma
grande quantidade de vetores, terı́amos um trabalho considerável resolvendo
um sistema linear para cada vetor. O objetivo desta seção é apresentar um
método mais prático para se fazer isso.
Seja V um espaço vetorial de dimensão finita e sejam B = {u1 , ..., un } e
C = {v1 , ..., vn } bases ordenadas de V . Dado v ∈ V , existem α1 , ..., αn ∈ R
e β1 , ..., βn ∈ R tais que

v = α1 u1 + ... + αn un
6. COORDENADAS 31

e
v = β1 v1 + ... + βn vn .
Como B é base de V , para cada i ∈ {1, ..., n}, existem γ1,i , ..., γn,i ∈ R
tais que
vi = γ1,i u1 + ... + γn,i un .
Logo,
v = β1 (γ1,1 u1 + ... + γn,1 un ) + ... + βn (γ1,n u1 + ... + γn,n un )
= (β1 γ1,1 + ... + βn γ1,n )u1 + ... + (β1 γn,1 + ... + βn γn,n )un
Portanto,
αi = β1 γi,1 + ... + βn γi,n
para todo i ∈ {1, ..., n}. Em forma matricial
    
α1 γ1,1 . . . γ1,n β1
 .   . ..  . 
 ..  =  .. .   .. 
    
αn γn,1 . . . γn,n βn

Definição 6.6. A matriz


 
γ1,1 . . . γ1,n
 . .. 
 .. . 
 
γn,1 . . . γn,n
é chamada de matriz de mudança de coordenadas da base ordenada B para
a base ordenada C e será denotada por MBC .

Exemplos.

(1) Sejam V = R2 , B = {(2, −1), (3, 4)} e C = {(1, 0), (0, 1)} bases
ordenadas de V . Se v ∈ R2 é tal que [v]C = (5, −8). Vamos calcular
[v]B usando a matriz de mudança de coordenadas da base ordenada B
para a base ordenada C.
Como
(1, 0) = 4/11(2, −1) + 1/11(3, 4)
(1, 1) = −3/11(2, −1) + 2/11(3, 4)
temos que !
4/11 −3/11
MCB = .
1/11 2/11
6. COORDENADAS 32

Logo, [v]B = (4, −1), pois


! ! !
4/11 −3/11 5 4
= .
1/11 2/11 −8 −1

(2) Sejam V = R2 , B = {e1 , e2 } a base canônica ordenada de R2 e


C = {f1 , f2 } a base ordenada de R2 obtida através de B pela rotação
de um ângulo θ. Queremos encontrar as coordenadas de v = (x, y) ∈ R2
com respeito à base ordenada C.
Como
e1 = cos θf1 − sin θf2
e2 = sin θe1 + cos θf2
temos que !
cos θ sin θ
MBC = .
− sin θ cos θ
Uma vez que [v]B = (x, y), temos que [v]C = (x cos θ + y sin θ, −x sin θ +
y cos θ), pois
! ! !
cos θ sin θ x x cos θ + y sin θ
=
− sin θ cos θ y −x sin θ + y cos θ

Proposição 6.7. Se V é um espaço vetorial de dimensão finita n e


A = {u1 , ..., un }, B = {v1 , ..., vn } e C = {w1 , ..., wn } são bases ordenadas de
V , então MCA = MBA MCB .

Demonstração. Para cada i ∈ {1, ..., n}, existem α1,i , ..., αn,i ∈ R tais
que
wi = α1,i v1 + ... + αn,i vn .
Para cada j ∈ {1, ..., n}, existem β1,j , ..., βn,j ∈ R tais que

vj = β1,j u1 + ... + βn,j un .

Portanto,
wi = α1,i (β1,1 u1 + ... + βn,1 un ) + . . . + αn,i (β1,n u1 + ... + βn,n un )
= (α1,i β1,1 + ... + αn,i β1,n )u1 + . . . + (α1,i βn,1 + ... + αn,i βn,n )un
para cada i ∈ {1, ..., n}. Logo,
 
α1,1 β1,1 + ... + αn,1 β1,n . . . α1,n β1,1 + ... + αn,n β1,n
 .. .. 
MCA =   . . .

α1,1 βn,1 + ... + αn,1 βn,n . . . α1,n βn,1 + ... + αn,n βn,n
6. COORDENADAS 33

Como  
α1,1 . . . α1,n
 . .. 
MCB =  .
 . . 

αn,1 . . . αn,n
e  
β1,1 . . . β1,n
 . .. 
MBA =  ..
 . 
βn,1 . . . βn,n
vemos que MCA = MBA MCB . 

Corolário 6.8. Se V é um espaço vetorial e A e B são bases ordenadas


−1
de V , então MAB é inversı́vel e MAB = MBA .

Demonstração. De acordo com a proposição 6.7, MAB MBA =


−1
MBB = I e MBA MAB = MAA = I. Logo, MAB é inversı́vel e MAB =
MBA . 
CAPı́TULO 2

Aplicações lineares e matrizes

Neste capı́tulo, começaremos a considerar aplicações entre espaços


vetoriais. As aplicações que nos interessam são aquelas que preservam a
estrutura de espaços vetoriais. Elas serão definidas na próxima seção.

1. Aplicações lineares

Definição 1.1. Sejam U e V espaços vetoriais. Dizemos que uma


aplicação T : U → V é linear se:
(i) T (u1 + u2 ) = T (u1 ) + T (u2 ) ∀u1 , u2 ∈ U ;
(ii) T (αu) = αT (u) ∀α ∈ R ∀u ∈ U .

Uma aplicação linear é também denominada transformação linear. A


próxima proposição decorre diretamente da definição 1.1.

Proposição 1.2. Sejam U e V espaços vetoriais e T : U → V uma


aplicação linear.
(i) T (0) = 0;
(ii) T (−u) = −T (u) ∀u ∈ U ;
(iii) T ( ni=1 αi ui ) = ni=1 αi T (ui ), onde α1 , ..., αn ∈ R e u1 , ..., un ∈ U .
P P

Demonstração.
(i) T (0) = T (0 + 0) = T (0) + T (0). Somando −T (0) a ambos os membros
da equação acima, obtemos T (0) = 0.
(ii) Seja u ∈ U . Temos que T (−u) = T (−1u) = −1T (u) = −T (u).
(iii) Se n = 1, então T (α1 u1 ) = α1 T (u1 ), de acordo com a condição
(ii) da definição 1.1. Suponhamos que para todo k < n, tenhamos
T ( ki=1 αi ui ) =
P Pk Pk+1
i=1 αi T (ui ). Mostraremos que T ( i=1 αi ui ) =
Pk+1 Pk+1 Pk
i=1 αi T (ui ). De fato, T ( i=1 αi ui ) = T ( i=1 αi ui ) + T (αk+1 uk+1 ),
segundo a condição (i) da definição 1.1. Por hipótese de indução
e pela condição (ii) da definição 1.1 temos que T ( k+1
P
i=1 αi ui ) =
Pk+1 Pk+1
i=1 αi T (ui ) + αk+1 T (uk+1 ) = i=1 αi T (ui ). Do princı́pio de
Pn Pn
indução finita decorre que T ( i=1 αi ui ) = i=1 αi T (ui ). 
34
1. APLICAÇÕES LINEARES 35

Exemplos.
(1) Sejam U e V espaços vetoriais. A aplicação
T : U → V
u 7 → 0
é linear.1 De fato, se u1 , u2 ∈ U , então T (u1 + u2 ) = 0 = 0 + 0 =
T (u1 ) + T (u2 ) e se α ∈ R e u ∈ U , então T (αu) = 0 = α0 = αT (u).
(2) Seja U um espaço vetorial. A aplicação
T : U → U
u 7 → u
é linear.2 Deixamos a verificação das condições (i) e (ii) da definição 1.1
como exercı́cio.
(3) Sejam U um espaço vetorial e α ∈ R. A aplicação T : U → U dada por
T (u) = αu é linear.3 Deixamos a verificação das condições (i) e (ii) da
definição 1.1 como exercı́cio.
(4) A aplicação T : R2 → R2 dada por T (x, y) = (x, −y) é linear.4 Deixamos
a verificação das condições (i) e (ii) da definição 1.1 como exercı́cio.
(5) A aplicação
T : C([a, b], R) → R
Rb
f 7→ a f (x)dx
é linear. Deixamos a verificação das condições (i) e (ii) da definição 1.1
como exercı́cio.
(6) A aplicação
T : P (R) → P (R)
p(x) 7→ p0 (x)
é linear. Deixamos a verificação das condições (i) e (ii) da definição 1.1
como exercı́cio.
(7) A aplicação T : R → R dada por T (x) = x2 não é linear. De fato,
T (1 + 1) = T (2) = 22 = 4, mas T (1) + T (1) = 12 + 12 = 2.
(8) Seja (a, b) ∈ R2 . A aplicação T : R2 → R2 dada por T (x, y) =
(x + a, y + b) é linear se, e somente se (a, b) = (0, 0).5 De fato, se T é

1T é chamada de aplicação nula de U em V .


2T é chamada de aplicação identidade de U .
3T é chamada de homotetia de razão α.
4T é chamada de reflexão em relação ao eixo x.
5T é chamada de translação na direção de (a, b).
1. APLICAÇÕES LINEARES 36

linear, então (0, 0) = T (0, 0) = (a, b). Reciprocamente, se (a, b) = (0, 0),
então T é a aplicação identidade de R2 , que é linear.
Sejam U e V espaços vetoriais e T : U → V uma aplicação linear.
Observamos que se {u1 , ..., un } é um subconjunto linearmente dependente
de U , então {T (u1 ), ..., T (un )} é um subconjunto linearmente dependente
de V . Com efeito, se existem escalares α1 , ..., αn não todos nulos tais que
Pn
i=1 αi ui = 0, então

0 = T (0) = T ( ni=1 αi ui ) = ni=1 αi T (ui )


P P

donde segue que {T (u1 ), ..., T (un )} é um subconjunto linearmente


dependente de V . Todavia, se {u1 , ..., un } é um subconjunto linearmente
independente de U , não podemos afirmar que {T (u1 ), ..., T (un )} seja um
subconjunto linearmente independente de V . De fato, a aplicação nula de
U em V é um exemplo de transformação linear que leva qualquer conjunto
de vetores de U em um subconjunto linearmente dependente de V .

Proposição 1.3. Sejam U e V espaços vetoriais e T : U → V uma


aplicação linear injetora. Se {u1 , ..., un } é um subconjunto linearmente
independente de U , então {T (u1 ), ..., T (un )} é um subconjunto linearmente
independente de V .
Pn
Demonstração. Se α1 , ...αn ∈ R são tais que i=1 αi T (ui ) = 0,
Pn
então T ( i=1 αi ui ) = 0. Como T é injetora e T (0) = 0, segue que
Pn
i=1 αi ui = 0. Do fato de {u1 , ..., un } ser linearmente independente
decorre que α1 = ... = αn = 0. Logo, {T (u1 ), ..., T (un )} é linearmente
independente. 

A próxima proposição mostra que a definição de uma aplicação linear


depende basicamente do seu valor nos elementos de uma base do domı́nio.

Proposição 1.4. Sejam U e V espaços vetoriais com U 6= {0}. Se


{u1 , ..., un } é uma base de U e se v1 , ..., vn são vetores de V , existe uma
única aplicação linear T : U → V tal que T (ui ) = vi , para todo i ∈ {1, ..., n}.

Demonstração. Seja u um vetor arbitrário de U . Como {u1 , ..., un } é


base de U , existem α1 , ..., αn ∈ R tais que
n
X
u= αi ui .
i=1
2. O NÚCLEO E A IMAGEM DE UMA APLICAÇÃO LINEAR 37

Definamos
n
X
T (u) = αi vi .
i=1
Observe que T está bem-definida, de acordo com a proposição 6.1.6 Além
disso, T (ui ) = vi , para todo i ∈ {1, ..., n}.
Pn
Afirmamos que T é linear. Com efeito, sejam u1 = i=1 βi ui e
Pn
u2 = i=1 γi ui vetores de U e seja α ∈ R. Temos que

T (u1 + u2 ) = T ( ni=1 βi ui + ni=1 γi ui )


P P

= T ( ni=1 (βi + γi )ui )


P
Pn
= (βi + γi )vi
Pi=1
n Pn
= i=1 βi vi + i=1 γi vi
= T (u1 ) + T (u2 )
e
T (α ni=1 βi ui )
P
T (αu1 ) =
T ( ni=1 (αβi )ui )
P
=
Pn
= i=1 (αβi )vi
α ni=1 βi vi
P
=
= αT (u1 ).
Logo, T é linear.
Resta mostrar a unicidade de T . Para tanto, seja T̃ : U → V
uma aplicação linear tal que T̃ (ui ) = vi , para todo i ∈ {1, ..., n}. Se
u = ni=1 αi ui é um vetor qualquer de U , então
P

n n n
!
X X X
T̃ (u) = T̃ αi ui = αi T̃ (ui ) = αi vi = T (u).
i=1 i=1 i=1

Portanto, T̃ = T . 

2. O núcleo e a imagem de uma aplicação linear

Definição 2.1. Sejam U e V espaços vetoriais e T : U → V uma


aplicação linear. O conjunto {u ∈ U : T (u) = 0} é chamado núcleo de T e
será denotado por ker T .7 O conjunto {v ∈ V : ∃u ∈ U tal que T (u) = v} é
denominado imagem de T e será denotado por im T .

6Isto é, que T é de fato uma função de U em V .


7Do inglês kernel, cuja tradução para o português é núcleo.
2. O NÚCLEO E A IMAGEM DE UMA APLICAÇÃO LINEAR 38

Proposição 2.2. Se U e V são espaços vetoriais e T : U → V é uma


aplicação linear, então ker T é um subespaço vetorial de U e im T é um
subespaço vetorial de V .

Demonstração. Mostraremos, primeiramente, que ker T é um


subespaço vetorial de U . De acordo com o item (i) da proposição 1.2,
0 ∈ ker T . Se u1 , u2 ∈ ker T , então T (u1 + u2 ) = T (u1 ) + T (u2 ) = 0 + 0 = 0.
Logo, u1 +u2 ∈ ker T . Por fim, se α ∈ R e u ∈ ker T , então T (αu) = αT (u) =
α0 = 0. Logo, αu ∈ ker T . Portanto, ker T é um subespaço vetorial de U .
Mostraremos, agora, que im T é um subespaço vetorial de V . Como
U 6= ∅, segue que im T 6= ∅. Se v1 , v2 ∈ im T , existem u1 , u2 ∈ U tais que
v1 = T (u1 ) e v2 = T (u2 ). Logo, v1 +v2 = T (u1 )+T (u2 ) = T (u1 +u2 ) ∈ im T .
Finalmente, se α ∈ R e v ∈ im T , então existe u ∈ U tal que v = T (u).
Assim, αv = αT (u) = T (αu) ∈ im T . 

Exemplos.
(1) Seja T : R2 → R dada por T (x, y) = x + y. Temos que im T = R e
ker T = {(x, y) ∈ R2 : y = −x} = [(1, −1)].
(2) Seja T : R3 → R3 dada por T (x, y, z) = (x, 2y, 0). Temos que
ker T = [(0, 0, 1)] e im T = [(1, 0, 0), (0, 2, 0)].
(3) Seja T : R3 → M2 (R) dada por
!
x+y 0
T (x, y, z) = .
0 z−y
" ! !#
1 0 0 0
Temos que ker T = [(1, −1, −1)] e im T = , .
0 0 0 1

Proposição 2.3. Se U e V são espaços vetoriais e T : U → V é uma


aplicação linear, então T é injetora se, e somente se, ker T = {0}.

Demonstração. (⇒): Claramente, {0} ⊂ ker T . Se u ∈ ker T , então


T (u) = 0. Como T (0) = 0 e T é injetora, segue que u = 0. Logo,
ker T = {0}.
(⇐): Sejam u1 , u2 ∈ U tais que T (u1 ) = T (u2 ). Temos que 0 =
T (u1 ) − T (u2 ) = T (u1 − u2 ). Por hipótese, u1 − u2 = 0, o que implica
u1 = u2 . 

Sejam U e V espaços vetoriais. Observe que se T : U → V é uma


aplicação linear e u1 , ..., un ∈ U são tais que U = [u1 , ..., un ], então
2. O NÚCLEO E A IMAGEM DE UMA APLICAÇÃO LINEAR 39

im T = [T (u1 ), ..., T (un )]. Em particular, se U tem dimensão finita, então


im T é um subespaço vetorial de V de dimensão finita.

Definição 2.4. Sejam U um espaço vetorial de dimensão finita, V um


espaço vetorial e T : U → V uma aplicação linear. Chamamos de nulidade
de T a dimensão do núcleo de T e chamamos de posto de T a dimensão da
imagem de T .

Vimos nos exemplos (1), (2) e (3) que a dimensão do domı́nio de cada
uma das transformações lineares apresentadas é igual à soma da dimensão
de seu núcleo com a dimensão de sua imagem. O próximo teorema mostra
que nossa observação não foi uma simples coincidência.

Teorema 2.5 (do núcleo e da imagem). Se U é um espaço vetorial de


dimensão finita, V é um espaço vetorial e T : U → V é uma aplicação
linear, então
dim U = dim ker T + dim im T.

Demonstração. Seja {u1 , ..., um } uma base de ker T e seja {v1 , ..., vn }
uma base de U tal que v1 = u1 , ..., vm = um . Se mostrarmos que {T (vi ) :
m < i ≤ n} é uma base de im T , teremos que dim U = n, dim ker T = m e
dim im T = n − m e, portanto, dim U = dim ker T + dim im T .
Afirmamos que {T (vi ) : m < i ≤ n} gera im T . De fato,
{T (v1 ), ..., T (vn )} gera im T , pois {v1 , ..., vn } gera U . Como T (vi ) = 0
para todo i ∈ {1, ..., m}, concluı́mos que {T (vi ) : m < i ≤ n} gera im T .
Resta mostrar que {T (vi ) : m < i ≤ n} é um subconjunto linearmente
independente de im T . Para tanto, sejam αm+1 , ..., αn ∈ R tais que
αm+1 T (vm+1 ) + ... + αn T (vn ) = 0. Temos que T ( ni=m+1 αi vi ) = 0 e,
P
Pn Pn Pm
portanto, i=m+1 αi vi ∈ ker T . Logo, i=m+1 αi vi = j=1 βj vj , onde
Pn Pm
β1 , ..., βm ∈ R. Como i=m+1 αi vi + j=1 (−βj )vj = 0 e {v1 , ..., vn } é um
subconjunto linearmente independente de U concluı́mos, em particular, que
αm+1 = ... = αn = 0. Portanto, {T (vi ) : m < i ≤ n} é uma base de
im T . 

Observe que a demonstração de teorema 2.5 indica como encontrar uma


base para a imagem de uma aplicação linear conhecendo-se uma base do
núcleo da mesma: basta completar a base do núcleo a uma base do domı́nio
e considerar a imagem dos elementos desta segunda base que foram, de fato,
adicionados (ou seja, que não pertenciam à base do núcleo).
3. ISOMORFISMOS 40

Sejam U um espaço vetorial de dimensão finita, V um espaço vetorial


e T : U → V uma aplicação linear. Do teorema 2.5 e da proposição 2.3
deduzimos que:
(1) Se T é injetora, então dim U ≤ dim V .
(2) Se T é sobrejetora, então dim U ≥ dim V .
(3) Se T é bijetora, então dim U = dim V .
De fato, se T é injetora, então ker T = {0} e, portanto, dim ker T =
0. Do teorema 2.5 segue que dim U = dim im T ≤ dim V . Se T é
sobrejetora, então im T = V e, portanto, dim im T = dim V . Logo,
dim U = dim ker T + dim V ≥ dim V .

3. Isomorfismos

Definição 3.1. Sejam U e V espaços vetoriais e T : U → V uma


aplicação linear. Dizemos que T é um isomorfismo se T é bijetora.

Se U e V são espaços vetoriais e T : U → V é um isomorfismo, podemos


definir uma aplicação T −1 : V → U da seguinte maneira: para cada v ∈ V ,
existe u ∈ U tal que T (u) = v, uma vez que T é sobrejetora. Como
T é injetora, u é o único elemento de U com esta propriedade. Façamos
T −1 (v) = u. Observe que
T −1 (T (u)) = u
e
T (T −1 (v)) = v
quaisquer que sejam u ∈ U e v ∈ V .

Proposição 3.2. Se U e V são espaços vetoriais e T : U → V é um


isomorfismo, então T −1 : V → U também é um isomorfismo.

Demonstração. Afirmamos, primeiramente, que T −1 é linear. De


fato, sejam v1 , v2 ∈ V e α ∈ R. Sejam também u1 , u2 ∈ U tais que
v1 = T (u1 ) e v2 = T (u2 ). Temos que T −1 (v1 + v2 ) = u1 + u2 , uma
vez que T (u1 + u2 ) = T (u1 ) + T (u2 ) = v1 + v2 . Como T −1 (v1 ) = u1
e T −1 (v2 ) = u2 , concluı́mos que T −1 (v1 + v2 ) = T −1 (v1 ) + T −1 (v2 ).
Além disso, T −1 (αv1 ) = αu1 , pois T (αu1 ) = αT (u1 ) = αv1 . Como
T −1 (v1 ) = u1 , temos que T −1 (αv1 ) = αT −1 (v1 ). Resta mostrar que T −1
é bijetora. Note que se u ∈ U , então T −1 (T (u)) = u. Portanto, T é
sobrejetora. Por fim, se v1 , v2 ∈ V são tais que T −1 (v1 ) = T −1 (v2 ), então
v1 = T (T −1 (v1 )) = T (T −1 (v2 )) = v2 . Logo, T −1 é injetora. 
3. ISOMORFISMOS 41

Proposição 3.3. Sejam U e V espaços vetoriais de dimensão finita tais


que dim U = dim V . Seja T : U → V uma aplicação linear. As seguintes
afirmações são equivalentes:
(i)T é um isomorfismo;
(ii)T é injetora;
(iii)T é sobrejetora;
(iv) Se {u1 , ..., un } é uma base de U , então {T (u1 ), ..., T (un )} é uma base
de V ;
(v) Existe {u1 , ..., un } uma base de U tal que {T (u1 ), ..., T (un )} é uma base
de V .
Demonstração. Vamos mostrar que

(i) ⇒ (ii) ⇒ (iii) ⇒ (iv) ⇒ (v) ⇒ (i).

(i) ⇒ (ii): Imediata.


(ii) ⇒ (iii): Da proposição 2.3 e do teorema 2.5 decorre que dim U =
dim im T . Como dim U = dim V e im T ⊂ V , temos que im T = V .
Portanto, T é sobrejetora.
(iii) ⇒ (iv): Seja {u1 , ..., un } uma base de U . Como T é sobrejetora,
{T (u1 ), ..., T (un )} gera V . Do fato de dim V = n, concluı́mos que
{T (u1 ), ..., T (un )} é base de V .
(iv) ⇒ (v): Imediata.
(v) ⇒ (i): Seja {u1 , ..., un } uma base de U tal que {T (u1 ), ..., T (un )}
é uma base de V . Se v ∈ V , então existem α1 , ..., αn ∈ R tais
Pn Pn
que v = i=1 αi T (ui ) = T ( i=1 αi vi ). Logo, T é sobrejetora.
Pn
Seja u ∈ ker T . Temos que u = i=1 βi ui , onde β1 , ..., βn ∈
Pn Pn
R. Logo, 0 = T (u) = T ( i=1 βi ui ) = i=1 βi T (ui ). Como
{T (u1 ), ..., T (un )} é um subconjunto linearmente independente de
V , temos que β1 = ... = βn = 0. Portanto, u = 0, o que implica T
injetora. 
Definição 3.4. Dizemos que dois espaços vetoriais U e V são isomorfos
se existe um isomorfismo T : U → V . Neste caso, escrevemos U ∼ =V.
Observamos no fim da seção anterior que dois espaços vetoriais isomorfos
têm a mesma dimensão. A próxima proposição mostra que a recı́proca desta
afirmação também é verdadeira.
Proposição 3.5. Se U e V são espaços vetoriais de dimensão finita,
então U ∼
= V se, e somente se dim U = dim V .
4. APLICAÇÕES LINEARES E MATRIZES 42

Demonstração. Resta mostrar que se dim U = dim V , então U e V


são isomorfos. Observe que se dim U = dim V = 0, então a aplicação nula de
U em V é um isomorfismo. Suponhamos, portanto, que dim U = dim V =
n ≥ 1. Seja B = {u1 , ..., un } uma base de U e seja C = {v1 , ..., vn } uma
base de V . Consideremos a aplicação linear T : U → V tal que T (ui ) = vi ,
para todo i ∈ {1, ..., n}. Como T satisfaz a afirmação (v) da proposição 3.3,
concluı́mos que T é um isomorfismo. Logo, U ∼ =V. 

Corolário 3.6. Sejam U um espaço vetorial de dimensão finita e n ≥ 1


um número natural. Se dim U = n, então U ∼
= Rn .

Demonstração. Basta notar que dim U = n = dim Rn e aplicar a


proposição 3.5. 

Note que o corolário 3.6 não é novidade: a proposição 6.4 já indicava
uma possibilidade de identificar um espaço vetorial de dimensão finita n com
o Rn .

4. Aplicações lineares e matrizes

Nesta seção, veremos como representar aplicações lineares entre espaços


vetoriais de dimensão finita por meio de matrizes com coeficientes reais.
Sejam U e V espaços vetoriais, B = {u1 , ..., um } uma base ordenada de
U , C = {v1 , ..., vn } uma base ordenada de V e T : U → V uma aplicação
linear.
Se u ∈ U , então
m
X
u= αj uj
j=1
onde α1 , ..., αm ∈ R. Portanto
m
X
T (u) = αj T (uj ).
j=1

Para cada j ∈ {1, ..., m}, existem α1,j , ..., αn,j ∈ R tais que
n
X
T (uj ) = αi,j vi .
i=1

Logo,
m n n X
m
!
X X X
T (u) = αj αi,j vi = (αi,j αj )vj .
j=1 i=1 i=1 j=1
4. APLICAÇÕES LINEARES E MATRIZES 43

Para cada i ∈ {1, ..., n}, façamos βi = m


P
j=1 (αi,j αj )vj . Observe que
    
β1 α1,1 . . . α1,m α1
 .   . ..   . 
 ..  =  ..  . 
   .   . .
βn αn,1 . . . αn,m αm

Definição 4.1. A matriz


 
α1,1 . . . α1,m
 . .. 
 .. .  ∈ Mn×m (R)
 
αn,1 . . . αn,m
é denominada a matriz da aplicação linear T com respeito às bases B e C
e será denotada por [T ]B,C .8

Em outras palavras, temos que

[T (u)]C = [T ]B,C [u]B

qualquer que seja u ∈ U .


Exemplos.
(1)
(2)
Sejam U e V espaços vetoriais, B = {u1 , ..., um } uma base ordenada
de U e C = {v1 , ..., vn } uma base ordenada de V . Vimos que a cada
aplicação linear T : U → V existe uma (única) matriz M ∈ Mn×m (R)
tal que [T (u)]C = M [u]B , qualquer que seja u ∈ U — a saber, M = [T ]B,C .
A próxima proposição mostra que a recı́proca deste resultado também é
verdadeira.

Proposição 4.2. Sejam U e V espaços vetoriais, B = {u1 , ..., um }


uma base ordenada de U , C = {v1 , ..., vn } uma base ordenada de V e
M ∈ Mn×m (R). Existe uma (única) aplicação linear T : U → V tal que
[T (u)]C = M [u]B , qualquer que seja u ∈ U .

Demonstração. Seja
 
α1,1 . . . α1,m
 . .. 
M = ..
 .
. 
αn,1 . . . αn,m

8Se U = V e B = C, escreveremos [T ] em vez de [T ]


B B,B .
5. A ÁLGEBRA DAS APLICAÇÕES LINEARES 44

Para cada i ∈ {1, ..., m}, definimos

wi = α1,i v1 + ... + αn,i vn .

Consideremos T : U → V a aplicação linear tal que T (ui ) = wi , para


todo i ∈ {1, ..., m}. Note que [T ]B,C = M e, portanto, [T (u)]C = M [u]B ,
qualquer que seja u ∈ U . 

5. A álgebra das aplicações lineares

Nesta seção, mostraremos que o conjunto das aplicações lineares entre


dois espaços vetoriais fixados admite estrutura de espaço vetorial.

Proposição 5.1. Sejam U e V espaços vetoriais e T1 , T2 : U → V


aplicações lineares. A aplicação
T1 + T2 : U → V
u 7→ T1 (u) + T2 (u)
é linear.

Demonstração. Sejam u1 , u2 ∈ U . Temos que


(T1 + T2 )(u1 + u2 ) = T1 (u1 + u2 ) + T2 (u1 + u2 )
= T1 (u1 ) + T1 (u2 ) + T2 (u1 ) + T2 (u2 )
= T1 (u1 ) + T2 (u1 ) + T1 (u2 ) + T2 (u2 )
= (T1 + T2 )(u1 ) + (T1 + T2 )(u2 ).
Sejam α ∈ R e u ∈ U . Temos que
(T1 + T2 )(αu) = T1 (αu) + T2 (αu)
= αT1 (u) + αT2 (u)
= α(T1 (u) + T2 (u))
= α(T1 + T2 )(u)
Logo, T1 + T2 é linear. 

Proposição 5.2. Sejam U e V espaços vetoriais, α ∈ R e T : U → V


uma aplicação linear. A aplicação
αT : U → V
u 7 → αT (u)
é linear.
5. A ÁLGEBRA DAS APLICAÇÕES LINEARES 45

Demonstração. Sejam u1 , u2 ∈ U . Temos que


(αT )(u1 + u2 ) = αT (u1 + u2 )
= α(T (u1 ) + T (u2 ))
= αT (u1 ) + αT (u2 )
= (αT )(u1 ) + (αT )(u2 )
Sejam β ∈ R e u ∈ U . Temos que
(αT )(βu) = α(T (βu))
= α(βT (u))
= (αβ)T (u)
= (βα)T (u)
= β(αT (u))
= β(αT )(u)
Logo, αT é linear. 

Sejam U e V espaços vetoriais. O conjunto das aplicações lineares de U


em V será denotado por L(U, V ).

Proposição 5.3. A terna (L(U, V ), +, ·) é um espaço vetorial.

Demonstração. Devemos mostrar que os axiomas (A1)-(A4) e (M1)-


(M4) estão satisfeitos. Sejam T1 , T2 , T3 ∈ L(U, V ) e α, β ∈ R arbitrários.

(A1): ((T1 + T2 ) + T3 )(u) = (T1 + T2 )(u) + T3 (u) = (T1 (u) + T2 (u)) + T3 (u) =
T1 (u) + (T2 (u) + T3 (u)) = T1 (u) + (T2 + T3 )(u) = (T1 + (T2 + T3 ))(u),
qualquer que seja u ∈ U . Logo, (T1 + T2 ) + T3 = T1 + (T2 + T3 ).
(A2): (T1 + T2 )(u) = T1 (u) + T2 (u) = T2 (u) + T1 (u) = (T2 + T1 )(u), qualquer
que seja u ∈ U . Logo, T1 + T2 = T2 + T1 .
(A3): Denotemos por 0 a aplicação nula de U em V . Temos que (T1 +0)(u) =
T1 (u) + 0(u) = T1 (u) + 0 = T1 (u), qualquer que seja u ∈ U . Logo,
T1 + 0 = T1 . A unicidade decorre da unicidade do vetor nulo de im T1 .
(A4): (T1 + (−1)T1 )(u) = T1 (u) + ((−1)T1 )(u) = T1 (u) + (−1)(T1 (u)) = 0,
qualquer que seja u ∈ U . Logo, T1 + (−1)T1 = 0.

(M1): ((αβ)T1 )(u) = (αβ)(T1 (u)) = α(β(T1 (u))) = α((βT1 )(u)) =


(α(βT1 ))(u), qualquer que seja u ∈ U . Logo, (αβT1 ) = α(βT1 ).
(M2): (1T1 )(u) = 1(T1 (u)) = T1 (u), qualquer que seja u ∈ U . Logo,
1T1 = T1 .
5. A ÁLGEBRA DAS APLICAÇÕES LINEARES 46

(M3): (α(T1 + T2 ))(u) = α((T1 + T2 )(u)) = α(T1 (u) + T2 (u)) = αT1 (u) +
αT2 (u) = (αT1 +αT2 )(u), qualquer que seja u ∈ U . Logo, α(T1 +T2 ) =
αT1 + αT2
(M4): ((α + β)T1 )(u) = (α + β)T1 (u) = αT1 (u) + βT1 (u) = (αT1 )(u) +
(βT1 )(u) = (αT1 + βT1 )(u), qualquer que seja u ∈ U . Logo,
(α + β)T1 = αT1 + βT1 . 

Se V = U , escreveremos L(U ) em vez de L(U, U ) e chamaremos os


elementos de L(U ) de operadores lineares de U . Se V = R, indicaremos
L(U, R) por U ∗ e chamaremos os elementos de U ∗ de formas lineares ou de
funcionais lineares de U .

Proposição 5.4. Sejam U e V espaços vetoriais, B = {u1 , ..., um }


uma base ordenada de U e {v1 , ..., vn } uma base ordenada de V . Se
T1 , T2 ∈ L(U, V ), então

[T1 + T2 ]B,C = [T1 ]B,C + [T2 ]B,C .

Demonstração. Sejam
 
α11 . . . α1k
 . .. 
[T1 ]B,C = .
 . . 

αm1 . . . αmk
e  
β11 . . . β1m
 . .. 
[T2 ]B,C = ..
 .
. 
βn1 . . . βnm
Temos que
n
X
T1 (ui ) = αji vj
j=1
e
n
X
T2 (ui ) = βji vj
j=1
qualquer que seja i ∈ {1, ..., m}. Portanto,
n
X n
X n
X
(T1 + T2 )(ui ) = T1 (ui ) + T2 (ui ) = αji vj + βji vj = (αji + βji )vj
j=1 j=1 j=1
5. A ÁLGEBRA DAS APLICAÇÕES LINEARES 47

qualquer que seja i ∈ {1, ..., m}. Logo,


 
α11 + β11 . . . α1k + β1k
 .. .. 
[T1 + T2 ]B,C =   . . 

αm1 + βm1 . . . αmk + βmk
ou seja,
[T1 + T2 ]B,C = [T1 ]B,C + [T2 ]B,C . 
Proposição 5.5. Sejam U e V espaços vetoriais, B = {u1 , ..., um } uma
base ordenada de U e {v1 , ..., vn } uma base ordenada de V . Se α ∈ R e
T ∈ L(U, V ), então
[αT ]B,C = α[T ]B,C .
Demonstração. Seja
 
α11 . . . α1k
 . .. 
[T ]B,C = .
 . .
. 
αm1 . . . αmk
Temos que
n
X
T (ui ) = αji vj
j=1
qualquer que seja i ∈ {1, ..., m}. Portanto,
n
X n
X
(αT )(ui ) = αT (ui ) = α αji vj = (ααji )vj
j=1 j=1

qualquer que seja i ∈ {1, ..., m}. Logo,


 
αα11 . . . αα1k
 .. .. 
[αT ]B,C =   . . 

ααm1 . . . ααmk
ou seja,
[αT ]B,C = α[T ]B,C . 
Proposição 5.6. Sejam U um espaço vetorial de dimensão m e V um
espaço vetorial de dimensão n. Então dim L(U, V ) = mn.
Demonstração. Sejam B = {u1 , ..., um } uma base ordenada de U e
C = {v1 , ..., vn } uma base ordenada de V . Afirmamos que
ϕ : L(U, V ) → Mn×m (R)
T 7→ [T ]B,C
5. A ÁLGEBRA DAS APLICAÇÕES LINEARES 48

é um isomorfismo. Com efeito, a linearidade de ϕ decorre das proposições


5.4 e 5.5. A sobrejetividade de ϕ segue da proposição 4.2. Resta mostrar
que ϕ é injetora. Para tanto, seja T ∈ ker ϕ. Temos que [T ]B,C = 0, o que
significa T (ui ) = 0, qualquer que seja i ∈ {1, ..., m}. Logo, T = 0.
Como ϕ é um isomorfismo, concluı́mos que dim L(U, V ) =
dim Mn×m (R) = mn. 

Proposição 5.7. Sejam U , V e W espaços vetoriais, T1 : U → V e


T2 : V → W aplicações lineares. A aplicação composta T2 ◦ T1 : U → W é
linear.

Demonstração. Sejam u1 , u2 ∈ U . Temos que


(T2 ◦ T1 )(u1 + u2 ) = T2 (T1 (u1 + u2 ))
= T2 (T1 (u1 ) + T1 (u2 ))
= T2 (T1 (u1 )) + T2 (T1 (u2 ))
= (T2 ◦ T1 )(u1 ) + (T2 ◦ T1 )(u2 ).
Sejam α ∈ R e u ∈ U . Temos que
(T2 ◦ T1 )(αu) = T2 (T1 (αu))
= T2 (αT1 (u))
= αT2 (T1 (u))
= α(T2 ◦ T1 )(u).
Portanto, T2 ◦ T1 é linear. 

Proposição 5.8. Sejam U , V e W espaços vetoriais, B = {u1 , ..., uk }


uma base ordenada de U , C = {v1 , ..., vm } uma base ordenada de V e
D = {w1 , ..., wn } uma base ordenada de W . Se T1 : U → V e T2 : V → W
são aplicações lineares, então

[T2 ◦ T1 ]B,D = [T2 ]C,D [T1 ]B,C .

Demonstração. Sejam
 
α11 . . . α1k
 . .. 
[T1 ]B,C = .. . 
 
αm1 . . . αmk
e  
β11 . . . β1m
 . .. 
[T2 ]C,D = .
 . .
. 
βn1 . . . βnm
6. FORMAS LINEARES 49

Temos que
m
X
T1 (ui ) = αji vj
j=1
qualquer que seja i ∈ {1, ..., k} e
n
X
T2 (vj ) = βlj wl
l=1

qualquer que seja j ∈ {1, ..., m}. Portanto,


(T2 ◦ T1 )(ui ) = T2 (T1 (ui ))
P 
m
= T2 j=1 α ji v j
Pm
= α ji T2 (vj )
Pj=1
m Pn
= j=1 αji ( l=1 βlj wl )
Pn Pm
= l=1 j=1 (βlj αji )wl .

Logo,  P 
m Pm
j=1 β1j αj1 . . . j=1 β1j αjk
 .. .. 
[T2 ◦ T1 ]B,D =
 . . 

Pm Pm
j=1 βnj αj1 . . . j=1 βnj αjk
ou seja,
[T2 ◦ T1 ]B,D = [T2 ]C,D [T1 ]B,C . 

6. Formas lineares

6.1. Espaço dual. Seja U um espaço vetorial. Recordamos que uma


forma linear de U é um elemento de U ∗ , ou seja, é uma aplicação linear de
U em R. O espaço vetorial U ∗ é denominado espaço dual de U .
Seja U 6= {0} um espaço vetorial. Se ω ∈ U ∗ é uma forma linear não
nula de U , então ω é sobrejetora. Além disso, ω será injetora se, e somente
se, dim U = 1.
Exemplos.
(1) Sejam α1 , ..., αn ∈ R fixados. A aplicação ω : Rn → R dada por
n
X
ω(x1 , ..., xn ) = αi xi
i=1

é uma forma linear de Rn .


(2) Seja α ∈ R fixado. A aplicação ω : P (R) → R dada por

ω(p(x)) = p(α)
6. FORMAS LINEARES 50

é uma forma linear de P (R).


(3) A aplicação ω : C([0, 1], R) → R dada por
Z 1
ω(f ) = f (x)dx
0
é uma forma linear de C([0, 1], R).

Proposição 6.1. Sejam U um espaço vetorial e B = {u1 , ..., un } uma


base de U . Existe uma única base B ∗ = {ω1 , ..., ωn } de U ∗ tal que
(
1 se i = j
ωi (uj ) =
0 se i 6= j
quaisquer que sejam i, j ∈ {1, ..., n}, a qual é denominada base dual de B.

Demonstração. Seja i ∈ {1, ..., n}. Da proposição 1.4 decorre que


existe uma única aplicação linear ωi : U → R tal que
(
1 se i = j
ωi (uj ) =
0 se i 6= j
qualquer que seja j ∈ {1, ..., n}. Vamos mostrar que {ω1 , ..., ωn } é uma base
de U ∗ . Observe que dim U ∗ = dim U = n. Portanto, basta provar que
{ω1 , ..., ωn } é um subconjunto linearmente independente de U ∗ .
Sejam α1 , ..., αn ∈ R tais que ni=1 αi ωi = 0. Para cada j ∈ {1, ..., n},
P

temos que
n
!
X
αi ωi (uj ) = 0(uj )
i=1
ou seja,
n
X
αi ωi (uj ) = 0.
i=1
Logo, αj = 0. Portanto, {ω1 , ..., ωn } é linearmente independente. 

Proposição 6.2. Sejam U um espaço vetorial, B = {u1 , ..., un } uma


base ordenada de U e B ∗ = {ω1 , ..., ωn } a base dual de B. Para cada u ∈ U
temos que
[u]B = (ω1 (u), ..., ωn (u))
e para cada ω ∈ U ∗ temos que

[ω]B ∗ = (ω(u1 ), ..., ω(un )).


6. FORMAS LINEARES 51

Demonstração. Seja u ∈ U . Se [u]B = (α1 , ..., αn ), então u =


Pn
j=1 αj uj . Logo,
 
Xn n
X
ωi (u) = ωi  αj uj =
 αj ωi (uj ) = αi .
j=1 j=1

Portanto, [u]B = (ω1 (u), ..., ωn (u)).


Pn
Seja, agora, ω ∈ U ∗ . Se [ω]B ∗ = (β1 , ..., βn ), então ω = i=1 βi ωi .
Temos que
n n
!
X X
ω(uj ) = βi ωi (uj ) = βi ωi (uj ) = βj .
i=1 i=1

Logo, [ω]B ∗ = (ω(u1 ), ..., ω(un )). 

Exemplos.
(1) Queremos determinar a base dual de B = {(1, 1, 0), (1, 1, −1), (0, 1, 1)} ⊂
R3 . Para tanto, consideremos (x, y, z) um elemento arbitrário de R3 .
Temos que [(x, y, z)]B = (2x − y + z, y − x − z, y − x). Portanto,
B ∗ = {ω1 , ω2 , ω3 }, onde
ω1 (x, y, z) = 2x − y + z
ω2 (x, y, z) = y − x − z
ω3 (x, y, z) = y − x.
(2) Queremos determinar a base dual de B = {1, x + 1, x2 + 1} ⊂ P2 (R).
Para tanto, consideremos a + bx + cx2 um elemento arbitrário de P2 (R).
Temos que [a+bx+cx2 ]B = (a−b−c, b, c). Portanto, B ∗ = {ω1 , ω2 , ω3 },
onde
ω1 (a + bx + cx2 ) = a − b − c
ω2 (a + bx + cx2 ) = b
ω3 (a + bx + cx2 ) = c.

6.2. Espaço bidual. Seja U um espaço vetorial de dimensão finita.


Vimos que para cada base ordenada {u1 , ..., un } de U , existe {ω1 , ..., ωn }
uma base de U ∗ tal que
(
1 se i = j
ωi (uj ) =
0 se i 6= j
quaisquer que sejam i, j ∈ {1, ..., n}. A questão que se coloca agora é a
seguinte: se C = {ω1 , ..., ωn } é uma base de U ∗ , existe B = {u1 , ..., un } uma
base ordenada de U tal que B ∗ = C?
6. FORMAS LINEARES 52

O objetivo desta seção é dar uma resposta afirmativa à pergunta acima.


Definição 6.3. Seja U um espaço vetorial. Chamamos o espaço vetorial
(U ∗ )∗
de espaço bidual de U e o denotamos por U ∗∗ .
Seja U um espaço vetorial. Dado u ∈ U , definimos
φu : U ∗ → R
ω 7→ ω(u).
Note que

φu (ω1 + ω2 ) = (ω1 + ω2 )(u) = ω1 (u) + ω2 (u) = φu (ω1 ) + φu (ω2 )

quaisquer que sejam ω1 , ω2 ∈ U ∗ e que

φu (αω) = (αω)(u) = αω(u) = αφu (ω)

quaisquer que sejam α ∈ R e ω ∈ U ∗ . Logo, φu ∈ U ∗∗ .


Lema 6.4. A aplicação Φ : U → U ∗∗ dada por Φ(u) = φu é linear e
injetora.
Demonstração. Sejam u1 , u2 ∈ U . Temos que Φ(u1 + u2 ) = φu1 +u2 e
que Φ(u1 ) + Φ(u2 ) = φu1 + φu2 . Como

φu1 +u2 (ω) = ω(u1 + u2 ) = ω(u1 ) + ω(u2 ) = φu1 (ω) + φu2 (ω)

qualquer que seja ω ∈ U ∗ , concluı́mos que Φ(u1 + u2 ) = Φ(u1 ) + Φ(u2 ).


Sejam α ∈ R e u ∈ U . Temos que Φ(αu) = φαu e que αΦ(u) = αφu . Como

φαu (ω) = ω(αu) = αω(u) = αφu (w)

qualquer que seja ω ∈ U ∗ , concluı́mos que Φ(αu) = αΦ(u). Logo, Φ é linear.


Se u ∈ ker Φ, então φu (ω) = 0, qualquer que seja ω ∈ U ∗ . Logo,
ω(u) = 0, qualquer que seja ω ∈ U ∗ . Se u 6= 0, poderı́amos estender {u} a
uma base de U e usar a proposição 1.4 para definir uma forma linear de U
que não se anula em u. Portanto, u = 0. Logo, Φ é injetora. 
Teorema 6.5. Se U é um espaço vetorial de dimensão finita, então Φ
é um isomorfismo.
Demonstração. Sabemos que dim U = dim U ∗ = dim U ∗∗ . Como
Φ é uma aplicação linear injetora, da proposição 3.3 segue que Φ é um
isomorfismo. 
Seja U um espaço vetorial de dimensão finita e seja C = {ω1 , ..., ωn } uma
base de U ∗ . Queremos construir uma base B = {u1 , ..., un } de U de modo
6. FORMAS LINEARES 53

que B ∗ = C. Para tanto, consideremos C ∗ = {φ1 , ..., φn } ⊂ U ∗∗ a base dual


C. Como Φ é um isomorfismo, Φ−1 também o é. Da proposição 3.3 decorre
que B = {Φ−1 (φ1 ), ..., Φ−1 (φn )} é uma base de U . Façamos ui = Φ−1 (φi ),
para todo i ∈ {1, ..., n}. Da definição de Φ decorre que φi = φui . Logo,
(
1 se i = j
ωj (ui ) = φui (ωj ) = φi (ωj ) =
0 se i 6= j
Portanto, C = B ∗ .
Acabamos de demonstrar o seguinte corolário.

Corolário 6.6. Se U é um espaço vetorial de dimensão finita, então


toda base de U ∗ é dual de alguma base de U .
CAPı́TULO 3

Determinantes

1. Formas volume

Definição 1.1. Seja V um espaço vetorial de dimensão n ≥ 1. Uma


forma volume de V é uma aplicação ∆ : V n → R que satisfaz as seguintes
condições:
(i) Para cada i ∈ {1, ..., n},

∆(v1 , ..., vi−1 , αvi , vi+1 , ..., vn ) = α∆(v1 , ..., vi−1 , vi , vi+1 , ..., vn )

quaisquer que sejam α ∈ R e v1 , ..., vn ∈ V e


∆(v1 , ..., vi−1 , ui + vi , vi+1 , ..., vn ) = ∆(v1 , ..., vi−1 , ui , vi+1 , ..., vn )
+ ∆(v1 , ..., vi−1 , vi , vi+1 , ..., vn )
quaisquer que sejam v1 , ...vi−1 , ui , vi , vi+1 , ..., vn ∈ V .
(ii) Se σ é uma permutação do conjunto {1, ..., n}, então

∆(xσ(1) , ..., xσ(n) ) = sgn(σ)∆(x1 , ..., xn )

onde (
1 se σ é par
sgn(σ) =
−1 se σ é ı́mpar.
Se ∆ verifica a condição (i), dizemos que ∆ é n-linear. Se ∆ verifica a
condição (ii), dizemos que ∆ é alternada.

1.1. Propriedades da forma volume.


Proposição 1.2. Sejam V um espaço vetorial de dimensão n ≥ 1, ∆
uma forma volume de V e v1 , ..., vn ∈ V . Temos que

∆(v1 , ..., vi , ..., vj , ..., vn ) = −∆(v1 , ..., vj , ..., vi , ..., vn ).


Demonstração. Basta lembrar que σ ∈ Sn dada por
!
1 ... i ... j ... n
σ=
1 ... j ... i ... n
é uma permutação ı́mpar, ou seja, que sgn σ = −1. 
54
1. FORMAS VOLUME 55

Corolário 1.3. Sejam V um espaço vetorial de dimensão n ≥ 1, ∆


uma forma volume de V e v1 , ..., vn ∈ V . Se vi = vj , então

∆(v1 , ..., vi , ..., vj , ..., vn ) = 0.

Demonstração. Com efeito, da proposição 1.2 segue que

∆(v1 , ..., vi , ..., vj , ..., vn ) = −∆(v1 , ..., vj , ..., vi , ..., vn ).

Como vi = vj , temos que

2∆(v1 , ..., vi , ..., vj , ..., vn ) = 0

e, portanto,
∆(v1 , ..., vi , ..., vj , ..., vn ) = 0. 

Proposição 1.4. Sejam V um espaço vetorial de dimensão n ≥ 1, ∆


uma forma volume de V e v1 , ..., vn ∈ V dois a dois distintos. Se {v1 , ..., vn }
é um subconjunto linearmente dependente de V , então ∆(v1 , ..., vn ) = 0.

Demonstração. Podemos supor que existem α1 , ..., αn−1 ∈ R tais que


vn = n−1
P
i=1 αi vi . Temos que
n−1
! n−1
X X
∆(v1 , ..., vn ) = ∆ v1 , ..., vn−1 , αi vi = αi ∆(v1 , ..., vn−1 , vi ) = 0.
i=1 i=1


Proposição 1.5. Sejam V um espaço vetorial de dimensão n ≥ 1, ∆


uma forma volume de V , α ∈ R e v1 , ..., vn ∈ V . Se i, j ∈ {1, ..., n} e i 6= j,
então
∆(v1 , ..., vi + αvj , ..., vn ) = ∆(v1 , ..., vn ).

Demonstração. Decorre da n-linearidade de ∆ e do corolário 1.3. 

1.2. Representação numa base. Sejam V um espaço vetorial de


dimensão n ≥ 1, ∆ uma forma volume de V e {e1 , ..., en } uma base de
V . Se v1 , ..., vn ∈ V , então
n
X
vj = αij ei
i=1

onde α1j , ..., αnj ∈ R, qualquer que seja j ∈ {1, ..., n}. Logo,

∆(v1 , ..., vn ) = ∆( ni=1 αi1 ei , . . . , ni=1 αin ei )


P P
P
= σ∈Sn ασ(1)1 · . . . · ασ(n)n ∆(eσ(1) , ..., eσ(n) ).
1. FORMAS VOLUME 56

Como ∆(eσ(1) , ..., eσ(n) ) = sgn σ∆(e1 , ..., en ) temos que


X
∆(v1 , ..., vn ) = sgn σασ(1)1 · . . . · ασ(n)n ∆(e1 , ..., en ).
σ∈Sn

A equação acima mostra que uma forma volume de V fica determinada


por seu valor numa base de V . Além disso, percebemos que se ∆ se anula
numa base de V , então ∆ é nula (ou seja, ∆(v1 , ..., vn ) = 0, qualquer que
seja (v1 , ..., vn ) ∈ V n ). Portanto, para que ∆ seja uma forma volume não
nula de V , ∆ não pode se anular em uma base de V .

Proposição 1.6. Sejam V um espaço vetorial de dimensão n ≥ 1, ∆


uma forma volume não nula de V e v1 , ..., vn elementos distintos de V .
Temos que ∆(v1 , ..., vn ) = 0 se, e somente se, {v1 , ..., vn } é um subconjunto
linearmente dependente de V .

Demonstração.
(⇒): Se ∆(v1 , ..., vn ) = 0, então {v1 , ..., vn } não pode ser linearmente
independente, uma vez que dim V = n (e, portanto, {v1 , ..., vn }
seria uma base de V ) e ∆ é uma forma volume não nula de V .
Logo, {v1 , ..., vn } é linearmente dependente.
(⇐): Decorre da proposição 1.4. 

1.3. “Unicidade”. Sejam V um espaço vetorial de dimensão n ≥ 1 e


{e1 , ..., en } uma base de V . Se ∆ e ∆ ˜ são formas volume de V com ∆ ˜ não
nula, então
X
∆(v1 , ..., vn ) = sgn(σ) · ασ(1)1 · . . . · ασ(n)n ∆(e1 , ..., en )
σ∈Sn
e X
˜ 1 , ..., vn ) =
∆(v ˜ 1 , ..., en ).
sgn(σ) · ασ(1)1 · . . . · ασ(n)n ∆(e
σ∈Sn
˜ é não nula, temos que ∆(e
Como ∆ ˜ 1 , ..., en ) 6= 0. Portanto,
∆(e1 , ..., en ) ˜
∆(v1 , ..., vn ) = ∆(v1 , ..., vn ).
˜ 1 , ..., en )
∆(e
Uma vez que a igualdade acima vale para quaisquer vetores v1 , ..., vn de V ,
podemos escrever
∆ = α∆ ˜
onde α ∈ R é dado por
∆(e1 , ..., en )
α= .
˜ 1 , ..., en )
∆(e
2. DETERMINANTE DE UM OPERADOR LINEAR 57

A fórmula acima mostra que toda forma volume de V é múltiplo de uma


forma volume não nula de V fixada.

1.4. Existência. Sejam V um espaço vetorial de dimensão n ≥ 1 e


{e1 , ..., en } uma base de V . Se v1 , ..., vn ∈ V , então
n
X
vj = αij ei
i=1

com α1j , ..., αnj ∈ R, qualquer que seja j ∈ {1, ..., n}. Seja

∆: Vn → R
P
(v1 , ..., vn ) 7→ σ∈Sn sgn(σ) · ασ(1)1 · . . . · ασ(n)n .

Proposição 1.7. ∆ é uma forma volume de V tal que ∆(e1 , ..., en ) = 1.

Demonstração. Exercı́cio. 

2. Determinante de um operador linear

Sejam V um espaço vetorial de dimensão n ≥ 1, T ∈ L(V ) e ∆ uma


forma volume não nula de V . Considere
∆T : Vn → R
(v1 , ..., vn ) 7→ ∆(T (v1 ), ..., T (vn )).
Proposição 2.1. ∆T é uma forma volume de V .

Demonstração. Temos que


∆T (v1 , ..., αvi , ..., vn ) = ∆(T (v1 ), ..., T (αvi ), ..., T (vn ))
= ∆(T (v1 ), ..., αT (vi ), ..., T (vn ))
= α∆(T (v1 ), ..., T (vi ), ..., T (vn ))
= α∆T (v1 , ..., vi , ..., vn )
e
∆T (v1 , ..., ui + vi , ..., vn ) = ∆(T (v1 ), ..., T (ui + vi ), ..., T (vn ))
= ∆(T (v1 ), ..., T (ui ) + T (vi ), ..., T (vn ))
= ∆(T (v1 ), ..., T (ui ), ..., T (vn ))
+ ∆(T (v1 ), ..., T (vi ), ..., T (vn ))
= ∆T (v1 , ..., ui , ..., vn ) + ∆T (v1 , ..., vi , ..., vn ).
Além disso, se σ ∈ S n , então
∆T (vσ(1) , ..., vσ(n) ) = ∆(T (vσ(1) ), ..., T (vσ(n) ))
= sgn σ∆(T (v1 ), ..., T (vn ))
= sgn σ∆T (v1 , ..., vn ).
2. DETERMINANTE DE UM OPERADOR LINEAR 58

Portanto, ∆ é uma forma volume de V . 

Sabemos que ∆T = α∆ para algum α ∈ R. Observe que α não depende


˜ é uma outra forma volume não nula de V ,
da escolha de ∆. De fato, se ∆
˜ = λ∆, para algum λ ∈ R. Conseqüentemente,
então ∆
˜ T (v1 , ..., vn ) =
∆ ˜ (v1 ), ..., T (vn ))
∆(T
= λ∆(T (v1 ), ..., T (vn ))
= λ∆T (v1 , ..., vn )
= λ(α∆(v1 , ..., vn ))
= (λα)∆(v1 , ..., vn )
= (αλ)∆(v1 , ..., vn )
= α(λ∆(v1 , ..., vn ))
= ˜ 1 , ..., vn ).
α∆(v

Definição 2.2. O escalar α é denominado determinante de T e é


denotado por det T .

Da definição 2.2 segue que

∆(T (v1 ), ..., T (vn )) = det T · ∆(v1 , ..., vn )

quaisquer que sejam v1 , ..., vn ∈ V .


Exemplos.
(1) Sejam V um espaço vetorial e ∆ uma forma volume não nula de V .
Denotemos por I o operador identidade de V , ou seja, I : V → V é tal
que I(v) = v, qualquer que seja v ∈ V . Afirmamos que det I = 1. De
fato, ∆(I(v1 ), ..., I(vn )) = ∆(v1 , ..., vn ).
(2) Sejam V um espaço vetorial, ∆ uma forma volume não nula de V , α
um número real fixado e T ∈ L(V ) dado por T (v) = αv, qualquer que
seja v ∈ V . Afirmamos que det T = αn . De fato, ∆(T (v1 ), ..., T (vn )) =
∆(αv1 , ..., αvn ) = αn ∆(v1 , ..., vn ).
(3) Sejam ∆ uma forma volume não nula de R2 e T : R2 → R2
dado por T (x, y) = (x, 0). Temos que det T = 0, uma vez que
∆(T (1, 0), T (0, 1)) = ∆((1, 0), (0, 0)) = 0 = 0∆((1, 0), (0, 1)).

2.1. Propriedades do determinante de um operador linear.

Proposição 2.3. Sejam V um espaço vetorial de dimensão n ≥ 1 e


T ∈ L(V ). O operador linear T é injetor (e, portanto, um isomorfismo) se,
e somente se, det T 6= 0.
3. DETERMINANTE DE UMA MATRIZ 59

Demonstração. Sejam ∆ uma forma volume não nula de V e


{e1 , ..., en } uma base de V . Temos que

∆(T (e1 ), ..., T (en )) = det T ∆(e1 , ..., en ).

Como ∆ é não nula e {e1 , ..., en } é base de V , segue que ∆(e1 , ..., en ) 6= 0.
Portanto,
∆(T (e1 ), ..., T (en ))
det T = .
∆(e1 , ..., en )
(⇒): Se T é injetor, então {T (e1 ), ..., T (en )} é um subconjunto
linearmente independente de V . Como dim V = n,
{T (e1 ), ..., T (en )} é uma base de V . Logo, ∆(T (e1 ), ..., T (en )) 6= 0
e, portanto, det T 6= 0.
(⇐): Se det T 6= 0, então ∆(T (e1 ), ..., T (en )) 6= 0 e, portanto,
{T (e1 ), ..., T (en )} é um subconjunto linearmente independente de
V . Do fato de dim V = n, decorre que {T (e1 ), ..., T (en )} é uma
base de V . De acordo com a proposição 3.3, T é injetora. 
Proposição 2.4. Seja V um espaço vetorial de dimensão n ≥ 1. Se
S, T ∈ L(V ), então det(S ◦ T ) = det S det T .
Demonstração. Seja ∆ uma forma volume não nula de V . Temos
que det((S ◦ T )(v1 ), ..., (S ◦ T )(vn )) = det(S(T (v1 )), ..., S(T (vn ))) =
det S∆(T (v1 ), ..., T (vn )) = det S det T ∆(v1 , ..., vn ), quaisquer que sejam
v1 , ..., vn ∈ V . Logo, det(S ◦ T ) = det S det T . 
Da proposição 2.4 decorre que se T é um isomorfismo, então
det T −1 det T = det I = 1. Portanto, det T −1 = (det T )−1 .

3. Determinante de uma matriz

Sejam V um espaço vetorial de dimensão n ≥ 1, ∆ uma forma volume


não nula de V , T ∈ L(V ) e B = {e1 , ..., en } uma base de V . Se
 
α11 . . . α1n
 . .. .. 
[T ]B =  . .
 . . 

αn1 . . . αnn
então
n
X
T (ej ) = aij ei .
i=1
Temos que
∆(T (e1 ), ..., T (en )) = det T ∆(e1 , ..., en )
3. DETERMINANTE DE UMA MATRIZ 60

e, portanto,
n n
!
X X
∆ ai1 ei , ..., ain ei = det T ∆(e1 , ..., en )
i=1 i=1

ou seja,
X
sgn σασ(1)1 ...ασ(n)n ∆(e1 , ..., en ) = det T ∆(e1 , ..., en ).
σ∈Sn

Portanto, X
det T = sgn σασ(1)1 ...ασ(n)n .
σ∈Sn
A fórmula acima mostra como o determinante de T é expresso em termos
da matriz [T ]B .
Exemplo.
(1) Sejam ∆ uma forma volume não nula de R2 e T ∈ L(R2 ) tal que
T (1, 0) = (1, 0) e T (0, 1) = (0, −1). Temos que
!
α11 α12
[T ]can =
α21 α22
onde α11 = 1, α21 = 0, α12 = 0 e α22 = −1. Logo,
X
det T = sgn σασ(1)1 ασ(2)2 = sgn σ1 ασ1 (1)1 ασ1 (2)2 + sgn σ2 ασ2 (1)1 ασ2 (2)2
σ∈S2

onde ! !
1 2 1 2
σ1 = e σ2 = .
1 2 2 1
Portanto, det T = 1α11 α22 + (−1)α21 α12 = −1 + 0 = −1.

Definição 3.1. Seja A ∈ Mn (R) dada por


 
α11 . . . α1n
 . .. .. 
A =  ..
 . .
. 
αn1 . . . αnn
O determinante de A será denotado por det A e é definido por
X
det A = sgn σασ(1)1 ...ασ(n)n .
σ∈Sn

Observe que det T = det[T ]B , qualquer que seja B base de V . Em


particular, temos que det[T ]B = det[T ]C , quaisquer que sejam B e C bases
de V .
3. DETERMINANTE DE UMA MATRIZ 61

3.1. Propriedades do determinante de uma matriz.

Proposição 3.2. Se A, B ∈ Mn (R), então det(AB) = det A det B.

Demonstração. Sejam C uma base de Rn e S, T ∈ L(Rn ) tais que


[S]C = A e [T ]C = B. Temos que
det(AB) = det([S]C [T ]C )
= det([S ◦ T ]C )
= det(S ◦ T )
= det S det T
= det[S]C det[T ]C
= det A det B.


Em particular, se A é inversı́vel, temos que det A det A−1 =


det(AA−1 ) = det I = 1 e, portanto, det A−1 = (det A)−1 .

3.2. Determinante de uma matriz como função de suas colunas.


Seja A ∈ Mn (R) dada por
 
α11 . . . α1n
 . .. .. 
A= . .
 . . 

αn1 . . . αnn
e considere T ∈ L(Rn ) tal que

T (ei ) = (αi1 , ..., αin )

onde ei = (0, ..., 0, |{z}


1 , 0, ..., 0). Observe que A = [T ]can . Seja ∆ a forma
i
volume de Rn tal que ∆(e1 , ..., en ) = 1. Temos que
∆(T (e1 ), ..., T (en )) = det T ∆(e1 , ..., en )
= det T
= det[T ]can
= det A.
Portanto,
det A = ∆(c1 , ..., cn )
onde ci denota a i-ésima coluna da matriz A. Da fórmula acima concluı́mos
que o determinante de A, considerado como função das colunas de A tem
as seguintes propriedades:
3. DETERMINANTE DE UMA MATRIZ 62

• O determinante é linear com respeito a cada coluna.


• Se trocarmos duas colunas de A de posição, o determinante muda
de sinal.
• O determinante não se altera se a uma coluna de A for adicionado
um múltipli de uma outra coluna de A.
• O determinante de A é diferente de 0 se, e somente se, as colunas
de A são linearmente independentes.
Observe que o mesmo vale para as linhas de A: basta considerar
T ∈ L(Rn ) tal que [T ]can = At . Do que fizemos acima decorre que as
observações valem para as colunas de At , que coincidem com as linhas de A.

3.3. Cofatores e inversa de uma matriz. Seja A ∈ Mn (R) dada


por  
α11 . . . α1n
 . .. .. 
A= .
 . . .
. 
αn1 . . . αnn
Substituindo o elemento αij por 1 e todos os outros elementos da linha i e
da coluna j por 0, obtemos a matriz
 
α11 . . . α1j−1 0 α1j+1 ··· α1n
 . .. ..
 ..

 . . 

 αi−11 . . . αi−1j−1 0 αi−1j+1 · · · αi−1n 
 
 
Cij = 
 0 ··· 0 1 0 ··· 0  
 αi+11 . . . αi+1j−1 0 αi+1j+1 · · · αi+1n 
 
 . .. .. 
 .
 . . .


αn1 ... αnj−1 0 αnj+1 ··· αnn

Definição 3.3. O determinante da matriz Cij é denominado cofator de


αij e é denotado por cof(αij ).

Definição 3.4. A matriz B ∈ Mn (R) dada por


 
cof(α11 ) . . . cof(αn1 )
 .. .. .. 
B=  . . . 

cof(α1n ) . . . cof(αnn )
é denominada a adjunta de A e é denotada por A∗ .

Observe que A∗ é a transposta da matriz dos cofatores de A. Vamos


mostrar que A∗ A = I det A.
3. DETERMINANTE DE UMA MATRIZ 63

Seja ∆ a forma volume de Rn tal que ∆(e1 , ..., en ) = 1, onde {e1 , ..., en }
representa a base canônica de Rn . Observamos inicialmente que
cof αij = det Cij
= ∆(c1 , ..., cj−1 , ei , cj+1 cn )
onde ck denota a k-ésima coluna da matriz Cij . Note que

cof αij = ∆(c1 + αi1 ei , ...cj−1 + αij−1 ei , ei , cj+1 + αij+1 ei , ..., c1 + αin ei ).

Portanto,
cof αij = ∆(a1 , ..., aj−1 , ei , aj+1 , ..., an )
onde ak denota a k-ésima coluna da matriz A. Multiplicando a j-ésima linha
de A∗ pela k-ésima coluna de A obtemos
Pn Pn
i=1 αik cof(αij ) = i=1 αik ∆(a1 , ..., aj−1 , ei , aj+1 , ..., an )
= ∆(a1 , ..., aj−1 , ni=1 αik ei , aj+1 , ..., an )
P

= ∆(a
( 1 , ..., aj−1 , ak , aj+1 , ..., an )
0 6 j
se k =
=
det A se k = j.
Portanto,
A∗ A = I det A.
A fórmula acima mostra que se det A 6= 0, então A é inversı́vel e
1
A−1 =
A∗ .
det A
3.4. A regra de Cramer. Considere o sistema linear

 α11 x1 + . . . + α1n xn = β1


.. .. ..
(∗) . . .


 α x + ... + α x = β
n1 1 nn n 1

Podemos escrever (∗) como


Ax = β
onde
     
α11 . . . α1n x1 β1
 . .. ..   ..   . 
A= .. , x =   .
 eβ= .
. . .  .
   
αn1 . . . αnn xn βn
Suponha det A 6= 0. Temos que

Ax = β
3. DETERMINANTE DE UMA MATRIZ 64

e, portanto,
1
x= A∗ β.
det A
Logo, Pn
i=1 cof(αij )βi
xj =
det A
Pn
i=1 det Cij βi
=
det A
Pn
i=1 βi ∆(a1 , ..., aj−1 , ei , aj+1 , ..., an )
=
det A

∆(a1 , ..., aj−1 , ni=1 βi ei , aj+1 , ..., an )


P
=
det A

∆(a1 , ..., aj−1 , β, aj+1 , ..., an )


= .
det A
Portanto,
det Aj
xj =
det A
onde  
α11 · · · α1j−1 β1 α1j+1 ··· α1n
 . .. .. .. .. 
Aj =  .
 . . . . .
. 
αn1 · · · αnj−1 βn αnj+1 · · · αnn

3.5. O desenvolvimento de Laplace. Seja A ∈ Mn (R) dada por


 
α11 . . . α1n
 . .. .. 
A= .
 . . .
. 
αn1 . . . αnn
Sejam i, j ∈ {1, ..., n} e Sij ∈ Mn−1 (R) a matriz obtida removendo-se a
i-ésima linha de A, bem como a j-ésima coluna de A. Em outras palavras,
 
α11 · · · α1j−1 α1j+1 · · · α1n
 .. .. .. .. 
 . . . . 
 
 i−11 · · · αi−1j−1 αi−1j+1 · · · αi−1n 
 α 
Sij =  .
 αi+11 · · · αi+1j−1 αi+1j+1 · · · αi+1n 
 .. .. .. ..
 

 . . . . 
αn1 ··· αnj−1 αnj+1 ··· αnn
3. DETERMINANTE DE UMA MATRIZ 65

Se mostrarmos que
cof(αij ) = (−1)i+j det Sij
obteremos a fórmula
n
X
det A = αij (−1)i+j det Sij
i=1

que é conhecida como o desenvolvimento de Laplace pela j-ésima coluna.1


Assuma, primeiramente, que i = j = 1. Temos que
X
det S11 = sgn σασ(2)2 · . . . · ασ(n)n
σ

onde σ percorre o conjunto de todas as permutações do conjunto {2, ..., n}.


Não é difı́cil ver que
X
cof(α11 ) = det C11 = sgn σασ(2)2 · . . . · ασ(n)n
σ

onde σ percorre o conjunto de todas as permutações do conjunto {2, ..., n}.


Portanto, cof(α11 ) = det S11 .
No caso geral, observe que permutando a linha i com as linhas i − 1,
i − 2, etc., e a coluna j com as colunas j − 1, j − 2, etc., vemos que a matriz
Cij se torna a matriz
 
1 0 ··· 0
 0
 

B=  ..
.
 . S

ij
0
Sabemos que

det Cij = (−1)(i−1)+(j−1) B = (−1)i+j det B

e vimos acima que


det B = det Sij .
Portanto,
cof(αij ) = det Cij = (−1)i+j det Sij .

1Como sabemos que AA∗ = I det A, podemos obter de modo análogo o desenvolvimento
de Laplace pela i-ésima linha.
CAPı́TULO 4

Semelhanças e diagonalização

1. Operadores diagonalizáveis

Sejam V um espaço vetorial de dimensão n ≥ 1 e T ∈ L(V ) um operador


linear de V . Suponha que exista B = {v1 , ..., vn } uma base de V tal que a
matriz [T ]B seja diagonal, ou seja tal que
 
λ1 0 . . . 0
 0 λ2 . . . 0 
 
[T ]B = 
 .. .. .. 
 . . . 

0 0 . . . λn
com λi ∈ R, qualquer que seja i ∈ {1, ..., n}. Da definição de [T ]B segue que

T (vi ) = λi vi

qualquer que seja i ∈ {1, ..., n}. Reciprocamente, se existem B = {v1 , ..., vn }
uma base de V e λ1 , ..., λn ∈ R tais que T (vi ) = λi vi qualquer que seja
i ∈ {1, ..., n}, então
 
λ1 0 . . . 0
 0 λ2 . . . 0 
 
[T ]B =  .
 .. .
.. 
 .. . . 
0 0 . . . λn
Portanto, o problema de encontrar uma matriz diagonal que representa o
operador linear T numa dada base se transformou no problema de encontrar
uma base {v1 , ..., vn } de V e λ1 , ..., λn ∈ R tais que T (vi ) = λi vi , qualquer
que seja i ∈ {1, ..., n}.

Definição 1.1. Sejam V um espaço vetorial e T ∈ L(V ). Um autovalor


de T é um número real λ tal que T (v) = λv, para algum v ∈ V não nulo.

Definição 1.2. Sejam V um espaço vetorial e T ∈ L(V ). Se λ é um


autovalor de T , então todo vetor v ∈ V não nulo que satisfaz T (v) = λv é
denominado um autovetor de T associado a λ.
66
1. OPERADORES DIAGONALIZÁVEIS 67

Exemplos.
(1) Seja V um espaço vetorial. Se T ∈ L(V ) não é injetor, então 0 é um
autovalor de T . De fato, existe v ∈ ker T tal que v 6= 0 e, portanto,
T (v) = 0 = 0v.
(2) Sejam V um espaço vetorial, α um número real fixado e T ∈ L(V ) dado
por T (v) = αv, para todo v ∈ V . Temos que α é um autovalor de T e
todo vetor não nulo de V é um autovetor de T associado a α.
(3) Considere T : R3 → R3 dada por T (x, y, z) = (x, y, −z).1 Se λ é um
autovalor de T , então existe (x, y, z) 6= (0, 0, 0) tal que T (x, y, z) =
λ(x, y, z), ou seja tal que

 x = λx

y = λy

−z = λz.

Logo, os autovalores de T são 1 e -1. Os autovetores de T associados


a 1 são da forma (x, y, 0), com x 6= 0 ou y 6= 0. Os autovetores de T
associados a −1 são da forma (0, 0, z), com z 6= 0.
(4) Considere T : R2 → R2 dada por T (x, y) = (−y, x).2 Se λ fosse um
autovalor de T , existiria (x, y) 6= (0, 0) tal que T (x, y) = λ(x, y), ou seja
tal que (
−y = λx
x = λy
Assim, terı́amos que λ2 y = −y e λ2 x = −x, o que implica x = y = 0.
Portanto, T não possui autovalores e, consequentemente, não possui
autovetores.

1.1. O polinômio caracterı́stico de um operador linear. Sejam


V um espaço vetorial de dimensão finita e T ∈ L(V ). Se λ é um autovalor
de T , então existe v ∈ V não nulo tal que T (v) = λv, o que é equivalente a
dizer que (λI − T )(v) = 0. Portanto,
λ é um autovalor de T ⇔ ker(λI − T ) 6= {0}
⇔ λI − T não é injetora
⇔ det(λI − T ) = 0
⇔ det[λI − T ]B = 0, qualquer que seja B base de V
⇔ det[λI − T ]B = 0, para alguma base B de V .

1T é a reflexão no plano xy.


2T é a rotação de π/2.
1. OPERADORES DIAGONALIZÁVEIS 68

As equivalências acima nos dão uma idéia de como encontrar os


autovalores de T ∈ L(V ).
Seja B uma base de V . Observe que [xI − T ]B é uma matriz cuja
diagonal principal é constituı́da de polinômios mônicos de grau 1 e cujas
outras entradas são elementos de R. Portanto, det[xI − T ]B é um polinômio
mônico de grau n com coeficientes em R. A equivalência acima pode ser
reescrita da seguinte maneira:

λ é um autovalor de T ⇔ λ é raiz do polinômio det[xI − T ]B .

Definição 1.3. Sejam V um espaço vetorial de dimensão finita, B uma


base de V e T ∈ L(V ). O polinômio det[xI − T ]B é denominado polinômio
caracterı́stico de T e é denotado por pT (x).

Exemplos.

(1) Seja T ∈ L(R3 ) dada por T (x, y, z) = (2x+y+z, 2x+3y+4z, −x−y−z).


Temos que  
2 1 1
[T ]can =  2 3 4 
 

−1 −1 −2
e, portanto,
 
x − 2 −1 −1
pT (x) = det  −2 x − 3 −4  = (x − 1)(x + 1)(x − 3).
 

1 1 x+2
Logo, os autovalores de T são 1, -1 e 3.
(2) Seja T ∈ L(R3 ) dada por T (x, y, z) = (2x − y + z, 3y − z, 2x + y + 3z).
Temos que  
2 −1 1
[T ]can =  0 3 −1 
 

2 1 3
e, portanto,
 
x−2 1 −1
pT (x) = det  0 x−3 1  = (x − 2)2 (x − 4).
 

−2 −1 x − 3
Logo, os autovalores de T são 2 e 4.
1. OPERADORES DIAGONALIZÁVEIS 69

(3) Seja T ∈ L(R3 ) dada por T (x, y, z) = (2x+y+z, 2x+3y+2z, 3x+3y+4z).


Temos que  
2 1 1
[T ]can =  2 3 2 
 

3 3 4
e, portanto,
 
x − 2 −1 −1
pT (x) = det  −2 x − 3 −2  = (x − 1)2 (x − 7).
 

−3 −3 x − 4
Logo, os autovalores de T são 1 e 7.

Proposição 1.4. Sejam V um espaço vetorial, T ∈ L(V ) e λ um


autovalor de T . O conjunto

AutT (λ) = {v ∈ V : T (v) = λv}

é um subespaço vetorial de V , denominado autoespaço de T associado a λ.

Demonstração. Basta observar que AutT (λ) = ker(λI − T ). 

Observe que se V é um espaço vetorial, T ∈ L(V ) e λ é um autovalor


de T , então AutT (λ) é constituı́do dos autovetores de T associados a λ e do
vetor nulo de V .
Exemplos.

(1) Seja T ∈ L(R3 ) dada por T (x, y, z) = (2x+y+z, 2x+3y+4z, −x−y−z).


Sabemos que os autovalores de T são 1, -1 e 3. Vamos exibir AutT (1),
AutT (−1) e AutT (3).
• AutT (1) = ker(1I − T ). Logo, (x, y, z) ∈ AutT (1) se, e somente se,
(1I − T )(x, y, z) = (0, 0, 0) ou seja, se, e somente se,


 −x − y − z = 0
−2x − 2y − 4z = 0

x + y + 3z = 0.

Portanto, os elementos de AutT (1) são da forma (x, −x, 0), com
x ∈ R. Em outras palavras, AutT (1) = [(1, −1, 0)].
1. OPERADORES DIAGONALIZÁVEIS 70

• AutT (−1) = ker(−1I−T ). Logo, (x, y, z) ∈ AutT (−1) se, e somente


se, (−1I − T )(x, y, z) = (0, 0, 0) ou seja, se, e somente se,

 −3x − y − z = 0

−2x − 4y − 4z = 0

x + y + z = 0.

Portanto, os elementos de AutT (1) são da forma (0, y, −y), com


y ∈ R. Em outras palavras, AutT (1) = [(0, 1, −1)].
• AutT (3) = ker(3I − T ). Logo, (x, y, z) ∈ AutT (3) se, e somente se,
(3I − T )(x, y, z) = (0, 0, 0) ou seja, se, e somente se,

 x−y−z = 0

−2x − 4z = 0

x + y + 5z = 0.

Portanto, os elementos de AutT (3) são da forma (2z, 3z, −z), com
z ∈ R. Em outras palavras, AutT (3) = [(2, 3, −1)].
Note que {(1, −1, 0), (0, 1, −1), (2, 3, −1)} é um subconjunto
linearmente independente de R3 .
(2) Seja T ∈ L(R3 ) dada por T (x, y, z) = (2x − y + z, 3y − z, 2x + y + 3z).
Sabemos que os autovalores de T são 2 e 4. Vamos exibir AutT (2) e
AutT (4).
• AutT (2) = ker(2I − T ). Logo, (x, y, z) ∈ AutT (2) se, e somente se,
(2I − T )(x, y, z) = (0, 0, 0) ou seja, se, e somente se,


 y−z = 0
−y + z = 0

−2x − y − z = 0.

Portanto, os elementos de AutT (2) são da forma (−y, y, y), com


y ∈ R. Em outras palavras, AutT (2) = [(−1, 1, 1)].
• AutT (4) = ker(4I − T ). Logo, (x, y, z) ∈ AutT (4) se, e somente se,
(4I − T )(x, y, z) = (0, 0, 0) ou seja, se, e somente se,

 2x + y − z = 0

y+z = 0

−2x − y + z = 0.

Portanto, os elementos de AutT (4) são da forma (x, −x, x), com
x ∈ R. Em outras palavras, AutT (4) = [(1, −1, 1)].
1. OPERADORES DIAGONALIZÁVEIS 71

Note que {(−1, 1, 1), (1, −1, 1)} é um subconjunto linearmente


independente de R3 .
(3) Seja T ∈ L(R3 ) dada por T (x, y, z) = (2x+y+z, 2x+3y+2z, 3x+3y+4z).
Sabemos que os autovalores de T são 1 e 7. Vamos exibir AutT (1) e
AutT (7).
• AutT (1) = ker(1I − T ). Logo, (x, y, z) ∈ AutT (1) se, e somente se,
(1I − T )(x, y, z) = (0, 0, 0) ou seja, se, e somente se,


 −x − y − z = 0
−2x − 2y − 2z = 0

−3x − 3y − 3z = 0.

Portanto, os elementos de AutT (1) são da forma (x, y, −x − y), com


x, y ∈ R. Em outras palavras, AutT (1) = [(1, 0, −1), (0, 1, −1)].
• AutT (7) = ker(7I − T ). Logo, (x, y, z) ∈ AutT (7) se, e somente se,
(7I − T )(x, y, z) = (0, 0, 0) ou seja, se, e somente se,


 5x − y − z = 0
−2x + 4y − 2z = 0

−3x − 3y + 3z = 0.

Portanto, os elementos de AutT (7) são da forma (x, 2x, 3x), com
x ∈ R. Em outras palavras, AutT (7) = [(1, 2, 3)].
Note que {(1, 0, −1), (0, 1, −1), (1, 2, 3)} é um subconjunto
linearmente independente de R3 .
Os exemplos acima sugerem que se juntarmos as bases dos vários
autoespaços de T obteremos um subconjunto linearmente independente de
V.
Proposição 1.5. Sejam V um espaço vetorial de dimensão finita e
T ∈ L(V ) um operador linear de V . Sejam λ1 , ..., λm autovalores de T
dois a dois distintos.
(i) Se v1 + ... + vm = 0 onde vi ∈ AutT (λi ) para todo i ∈ {1, ..., m}, então
v1 = ... = vm = 0.
(ii) Para cada i ∈ {1, ..., m}, seja Si ⊂ AutT (λi ) um conjunto linearmente
independente. A união S1 ∪ ... ∪ Sm é um subconjunto linearmente
independente de V .
Demonstração.
(i) Faremos a demonstração deste item por indução em m. Para m = 1,
é imediato. Suponha que a asserção do item (i) seja válida para m.
1. OPERADORES DIAGONALIZÁVEIS 72

Vamos mostrar sua validade para m + 1. Sejam v1 ∈ AutT (λ1 ), ...,


vm ∈ AutT (λm ) e vm+1 ∈ AutT (λm+1 ) tais que v1 +...+vm +vm+1 = 0.
Temos que

0 = T (v1 +...+vm +vm+1 ) = T (v1 )+...+T (vm )+T (vm+1 ) = λ1 v1 +...+λm vm +λm+1 vm+1 .

Multiplicando a equação v1 +...+vm +vm+1 = 0 por λm+1 e subtraindo


λ1 v1 + ... + λm vm + λm+1 vm+1 = 0 obtemos (λm+1 − λ1 )v1 + ... +
(λm+1 − λm )vm = 0. Por hipótese de indução, (λm+1 − λi )vi = 0, para
todo i ∈ {1, ..., m}. Como λi 6= λm+1 , temos que vi = 0, para todo
i ∈ {1, ..., m}. De v1 + ... + vm + vm+1 = 0 segue que vm+1 = 0.
(ii) Para cada i ∈ {1, ..., m}, seja Si = {v1,i , ..., vni ,i } ⊂ AutT (λi )
linearmente independente. Se α1,1 , ..., αn1 ,1 , ..., α1,m , ..., αnm ,m ∈ R são
tais que

α1,1 v1,1 + ... + αn1 ,1 vn1 ,1 + ... + α1,m v1,m + ... + αnm ,m vnm ,m = 0

então
α1,i v1,i + ... + αni ,i vni ,i = 0
para todo i ∈ {1, ..., m}, de acordo com o item (i) desta proposição.
Como Si = {v1,i , ..., vni ,i } é linearmente independente, segue que

α1,i = ... = αni ,i = 0

para todo i ∈ {1, ..., m}. Logo, S1 ∪ ... ∪ Sm é um subconjunto


linearmente independente de V . 

Estamos particularmente interessados na situação em que existe uma


base de V constituı́da de autovetores de T .

Definição 1.6. Sejam V um espaço vetorial de dimensão finita e


T ∈ L(V ). Dizemos que T é diagonalizável se existe B uma base de V
constituı́da de autovetores de T .3

Proposição 1.7. Sejam V um espaço vetorial de dimensão finita e


T ∈ L(V ) um operador linear de V . Sejam λ1 , ..., λm todos os autovalores
de T , onde λi 6= λj se i 6= j. O operador linear T é diagonalizável se, e
somente se,
m
X
dim V = dim AutT (λi ).
i=1

3Em outras palavras, T é diagonalizável se, e somente se, V admite uma base B tal que
[T ]B é uma matriz diagonal.
1. OPERADORES DIAGONALIZÁVEIS 73

Demonstração.
(⇐): Para cada i ∈ {1, ..., m}, seja Bi uma base de AutT (λi ).
Do item (ii) da proposição 1.5 decorre que B = B1 ∪ ... ∪ Bn
é um subconjunto linearmente independente de V . Temos que
|B| = m
P
i=1 dim AutT (λi ) = dim V , por hipótese. Logo, B é uma
base de V . Como B é constituı́da de autovetores de T , segue que
T é diagonalizável.
(⇒): Por hipótese, T é diagonalizável. Seja, portanto, B uma
base de V constituı́da de autovetores de T . Denotemos por
li a quantidade de elementos de B que pertence a AutT (λi ).
Temos que dim AutT (λi ) ≥ li , pois B é linearmente independente.
Pm Pm
Logo, i=1 dim AutT (λi ) ≥ li = dim V . Do item (ii) da
Pm i=1
proposição 1.5 segue que i=1 dim AutT (λi ) ≤ dim V e, portanto,
Pm
i=1 dim AutT (λi ) = dim V . 

Exemplos.
(1) O operador linear T ∈ L(R3 ) dado por T (x, y, z) = (2x + y +
z, 2x + 3y + 4z, −x − y − z) é diagonalizável, pois dim R3 = 3 =
1 + 1 + 1 = dim AutT (1) + dim AutT (−1) + dim AutT (3).4 Além disso,
{(1, −1, 0), (0, 1, −1), (2, 3, −1)} é uma base V constituı́da de autovetores
de T e  
1 0 0
[T ]B =  0 −1 0  .
 

0 0 3
(2) O operador linear T ∈ L(R3 ) dado por T (x, y, z) = (2x − y + z, 3y −
z, 2x + y + 3z) não é diagonalizável, pois dim R3 = 3 > 1 + 1 =
dim AutT (2) + dim AutT (4).
(3) O operador linear T ∈ L(R3 ) dado por T (x, y, z) = (2x + y + z, 2x +
3y + 2z, 3x + 3y + 4z) é diagonalizável, pois dim R3 = 3 = 2 + 1 =
dim AutT (1) + dim AutT (7). Além disso, {(1, 0, −1), (0, 1, −1), (1, 2, 3)}
é uma base V constituı́da de autovetores de T e
 
1 0 0
[T ]B =  0 1 0  .
 

0 0 7

4Observe que se V é um espaço vetorial de dimensão n ≥ 1 e T ∈ L(V ) tem n autovalores


distintos, então T é diagonalizável.
2. SEMELHANÇA 74

2. Semelhança

Definição 2.1. Sejam A, B ∈ Mn (R). Dizemos que A e B são


semelhantes se existe M ∈ Mn (R) inversı́vel tal que A = M −1 BM .

As próximas proposições mostram que duas matrizes A, B ∈ Mn (R) são


semelhantes se, e somente se, A = [T ]C e B = [T ]D , onde T ∈ L(Rn ) e C e
D são bases de Rn .

Proposição 2.2. Sejam V um espaço vetorial de dimensão n ≥ 1 e


T ∈ L(V ). Se C e D são bases de V , então [T ]C e [T ]D são semelhantes.

Demonstração. Temos que [I]C,D [T ]C = [I ◦ T ]C,D = [T ]C,D =


[T ◦ I]C,D = [T ]D [I]C,D . Logo, [T ]C = [I]D,C [T ]D [I]C,D = [I]−1
C,D [T ]D [I]C,D .
Portanto, [T ]B e [T ]C são semelhantes. 

Proposição 2.3. Se A, B ∈ Mn (R) são semelhantes, então existem C


e D bases de Rn e T ∈ L(Rn ) tais que A = [T ]C e B = [T ]D .

Demonstração. Como A e B são semelhantes, existe M ∈ Mn (R)


inversı́vel tal que A = M −1 BM . Fixemos C uma base de Rn e consideremos
T ∈ L(Rn ) tal que [T ]C = B. Se
 
α11 . . . α1n
 . .. .. 
M = . .
 . . 

αn1 . . . αnn
sejam v1 , ..., vn ∈ Rn dados por
v1 = α11 u1 + ... + αn1 un
.. .. ..
. . .
vn = α1n u1 + ... + αnn un .
Do fato de M ser inversı́vel decorre que D = {v1 , ..., vn } é uma base
de V . Observe que M = [I]D,C e, portanto, M −1 = [I]C,D . Logo,
A = M −1 BM = [I]C,D [T ]C [I]D,C = [T ]D . 
Exemplos.
(1) As matrizes ! !
1 0 1 0
A= eB=
0 0 0 1
não são semelhantes. De fato, se A e B fossem semelhantes, existiria
M ∈ M2 (R) inversı́vel tal que A = M −1 BM . Logo, det A =
2. SEMELHANÇA 75

det(M −1 BM ) = det(M −1 ) · det B · det M = (det M )−1 · det B · det M =


det B. Todavia, det A = 0 6= 1 = det B.
(2) As matrizes ! !
0 1 1 1
A= eB=
0 0 0 0
têm mesmo determinante, mas não são semelhantes. Com efeito,
suponha que exista !
a b
M=
c d
inversı́vel tal que B = M −1 AM . Temos que M B = AM , ou seja,
! ! ! !
a b 1 1 0 1 a b
= .
c d 0 0 0 0 c d
Portanto, a = c = d = 0, o que é absurdo, pois M é inversı́vel.
(3) As matrizes ! !
1 2 4 0
A= eB=
3 2 0 −1
são semelhantes. De fato, seja T ∈ L(R2 ) tal que [T ]can = A. Vamos
mostrar que existe C uma base de R2 tal que B = [T ]C . Temos que
T (1, 0) = (1, 3)
T (0, 1) = (2, 2)
e, portanto, T (x, y) = x(1, 3) + y(2, 2) = (x + 2y, 3x + 2y). Se
C = {(a, b), (c, d)} é uma base de R2 tal que B = [T ]C , então
T (a, b) = 4(a, b)
T (c, d) = −1(c, d)
o que implica (a + 2b, 3a + 2b) = (4a, 4b) e (c + 2d, 3d + 2d) = (−c, −d).
Logo, 3a = 2b e c = −d.
Observe que C = {(2, 3), (1, −1)} é uma base de R2 tal que [T ]C = B.
Portanto, A e B são semelhantes. Note também que
!
2 1
M = [I]C,can =
3 −1
é inversı́vel, !
−1 1/5 1/5
M = [I]can,C =
3/5 −2/5
2. SEMELHANÇA 76

e
B = M −1 AM.

Definição 2.4. Dizemos que A ∈ Mn (R) é diagonalizável se A é


semelhante a uma matriz diagonal.

Exemplo.
! !
1 2 4 0
(1) A matriz é diagonalizável, pois é semelhante a .
3 2 0 −1
2.1. Potências de matriz.

Definição 2.5. Seja A ∈ Mn (R). Definimos as potências de A


indutivamente:
• A0 = I;
• A1 = A;
• An+1 = An · A.

Se A é diagonalizável, existem M ∈ Mn (R) inversı́vel e D ∈ Mn (R) tais


que A = M −1 DM . Logo,

An = M −1 Dn M.

Exemplo.
(1) Seja n um número natural. Temos que
!n ! ! !
1 2 2 1 4n 0 1/5 1/5
=
3 2 3 −1 0 (−1)n 3/5 −2/5
!
1 2 · 4n + 3 · (−1)n 2 · 4n − 2 · (−1)n
= .
5 3 · 4n + 3 · (−1)n+1 3 · 4n − 2 · (−1)n+1
CAPı́TULO 5

Produto interno e ortogonalidade

1. Espaços com produto interno

Definição 1.1. Seja V um espaço vetorial. Um produto interno em V


é uma aplicação h , i : V × V → R que satisfaz as seguintes condições:
(P1) hv1 + v2 , v3 i = hv1 , v3 i + hv2 , v3 i, quaisquer que sejam v1 , v2 , v3 ∈ V ;
(P2) hαv1 , v2 i = αhv1 , v2 i, quaisquer que sejam α ∈ R e v1 , v2 ∈ V ;
(P3) hv1 , v2 i = hv2 , v1 i, quaisquer que sejam v1 , v2 ∈ V ;
(P4) hv, vi ≥ 0, para todo v ∈ V ;
(P5) hv, vi = 0 se, e somente se, v = 0.

De (P1), (P2) e (P3) decorre que

hv1 , v2 + v3 i = hv1 , v2 i + hv1 , v3 i

quaisquer que sejam v1 , v2 , v3 ∈ V e

hv1 , αv2 i = αhv1 , v2 i

quaisquer que sejam v1 , v2 ∈ V . Portanto, h , i é bilinear. Em particular,


temos que
h0, vi = hv, 0i = 0
para todo v ∈ V e
* n m
+ n X
m
X X X
αi ui , β j vj = αi βj hui , vj i
i=1 j=1 i=1 j=1

quaisquer que sejam α1 , ..., αn , β1 , ..., βm ∈ R e u1 , ..., un , v1 , ..., vm ∈ V .


Exemplos.
(1) A aplicação h , i : Rn × Rn → R dada por
n
X
h(x1 , ..., xn ), (y1 , ..., yn )i = x i yi
i=1

é um produto interno de Rn , denominado produto interno usual de Rn .


Para provar esta afirmação, devemos mostrar que as condições (P1)-(P5)
77
1. ESPAÇOS COM PRODUTO INTERNO 78

estão satisfeitas. Sejam, portanto, (x1 , ..., xn ), (y1 , ..., yn ), (z1 , ..., zn ) ∈
Rn arbitrários e α ∈ R.
(P1): h(x1 , ..., xn ) + (y1 , ..., yn ), (z1 , ..., zn )i = h(x1 + y1 , ..., xn +
Pn Pn Pn
yn ), (z1 , ..., zn )i = i=1 (xi + yi )zi = i=1 xi zi + i=1 yi zi =
h(x1 , ..., xn ), (z1 , ..., zn )i + h(y1 , ..., yn ), (z1 , ..., zn )i.
(P2): hα(x1 , ..., xn ), (y1 , ..., yn )i =
Pn Pn
h(αx1 , ..., αxn ), (y1 , ..., yn )i = i=1 (αxi )yi = i=1 α(xi yi ) =
α ni=1 xi yi = αh(x1 , ..., xn ), (y1 , ..., yn )i.
P
Pn Pn
(P3): h(x1 , ..., xn ), (y1 , ..., yn )i = i=1 xi yi = i=1 yi xi =
h(y1 , ..., yn ), (x1 , ..., xn )i.
(P4): h(x1 , ..., xn ), (x1 , ..., xn )i = ni=1 x2i ≥ 0.
P

(P5): Se h(x1 , ..., xn ), (x1 , ..., xn )i = 0, então ni=1 x2i = 0 e, portanto,


P

x1 = ... = xn = 0. Evidentemente, h(0, ..., 0), (0, ..., 0)i = 0.


(2) A aplicação h , i : R2 × R2 → R dada por

h(x1 , x2 ), (y1 , y2 )i = x1 y1 + 2x2 y2

é um produto interno em R2 . Deixamos a verificação das condições


(P1)-(P5) como exercı́cio.1
(3) A aplicação h , i : P2 (R) × P2 (R) → R dada por
Z 1
hp(x), q(x)i = p(x)q(x)
0
é um produto interno em P2 (R). Deixamos a verificação das condições
(P1)-(P5) como exercı́cio.

1.1. A desigualdade de Cauchy-Schwarz.

Definição 1.2. Seja V um espaço vetorial. Uma norma em V é uma


aplicação || · || : V → R que satisfaz as seguintes condições:

(N1) ||v|| ≥ 0, para todo v ∈ V ;


(N2) ||v|| = 0 se, e somente se, v = 0.
(N3) ||αv|| = |α| · ||v||, quaisquer que sejam α ∈ R e v ∈ V ;
(N4) ||v1 + v2 || ≤ ||v1 || + ||v2 ||, quaisquer que sejam v1 , v2 ∈ V ;

1Este exemplo, junto com o primeiro, serve para mostrar que pode haver mais de um
produto interno num mesmo espaço vetorial. Por isso, é importante deixar claro qual
produto interno está sendo considerado.
1. ESPAÇOS COM PRODUTO INTERNO 79

Queremos mostrar que se V é um espaço vetorial e h , i é um produto


interno em V , então a aplicação
|| · || : V → R
p
x 7 → hx, xi
é uma norma em V , denominada norma proveniente do produto interno
h , i. A propriedade (N1) decorre da definição de norma e a propriedade
(N2) decorre de (P5). Além disso, (N3) é obtida a partir de (P2). De fato,
||αx||2 = hαx, αxi = α2 hx, xi = α2 ||x||2 . A condição (N4) é expressa pelo
corolário 1.4.

Proposição 1.3 (Desigualdade de Cauchy-Schwarz). Se V é um espaço


vetorial e h , i é um produto interno em V , então

|hv1 , v2 i| ≤ ||v1 || · ||v2 ||

quaisquer que sejam v1 , v2 ∈ V .

Demonstração. Sejam v1 , v2 ∈ V . Se v2 = 0, então hv1 , v2 i = 0


e ||v1 || · ||v2 || = 0. Neste caso, vale a igualdade hv1 , v2 i = ||v1 || · ||v2 ||.
Suponhamos v2 6= 0. Para todo α ∈ R vale que ||v1 + αv2 ||2 ≥ 0.
Portanto, 0 ≤ ||v1 + αv2 ||2 = hv1 + αv2 , v1 + αv2 i = hv1 , v1 i + hv1 , αv2 i +
hαv2 , v1 i + hαv2 , αv2 i = ||v1 ||2 + αhv1 , v2 i + α2 ||v2 ||2 . Como v2 6= 0,
||v1 ||2 + αhv1 , v2 i + α2 ||v2 ||2 é um trinômio do segundo grau em α. Do
fato de ||v1 ||2 + αhv1 , v2 i + α2 ||v2 ||2 ≥ 0 decorre que seu discriminante
hv1 , v2 i2 − 4||v1 ||2 ||v2 ||2 ≤ 0. Logo, |hv1 , v2 i| ≤ ||v1 || · ||v2 ||. 

Corolário 1.4 (Desigualdade triangular). Se V é um espaço vetorial


e h , i é um produto interno em V , então

||v1 + v2 || ≤ ||v1 || + ||v2 ||

quaisquer que sejam v1 , v2 ∈ V .

Demonstração. Sejam v1 , v2 ∈ V . Temos que ||v1 + v2 ||2 = hv1 +


v2 , v1 + v2 i = ||v1 ||2 + 2hv1 , v2 i + ||v2 ||2 ≤ ||v1 ||2 + 2||v1 ||||v2 || + ||v2 ||2 =
(||v1 || + ||v2 ||)2 . Portanto, ||v1 + v2 || ≤ ||v1 || + ||v2 ||. 

Exemplos.
(1) Seja V = Rn munido do produto interno h(x1 , ..., xn ), (y1 , ..., yn )i =
Pn p
i=1 xi yi . Temos que ||(x1 , ..., xn )|| = x21 + ... + x2n .
2. ORTOGONALIDADE 80

(2) Seja V = R2 munido do produto interno h(x1 , x2 ), (y1 , y2 )i = x1 y1 +


p
2x2 y2 . Temos que ||(x1 , x2 )|| = x21 + 2x22 .2
R1
(3) Seja V = P2 (R) munido do produto interno hp(x), q(x)i = 0 p(x)q(x).
R 1/2
1
Temos que ||p(x)|| = 0 p2 (x)dx .

2. Ortogonalidade

Definição 2.1. Sejam V um espaço vetorial e h , i um produto interno


em V . Dizemos que v1 , v2 ∈ V são ortogonais se hv1 , v2 i = 0 e escrevemos
v1 ⊥ v2 . Um subconjunto A de V é dito ortogonal se quaisquer dois
elementos distintos de A são ortogonais. Dizemos que A é ortonormal se A
é um conjunto ortogonal e ||v|| = 1, qualquer que seja v ∈ A.

Observe que o vetor nulo de um espaço vetorial V é ortogonal a todos


os elementos de V e é o único vetor de V ortogonal a si próprio.
Exemplos.
(1) Considere R3 munido do produto interno usual. O conjunto
{(1, 0, 0), (0, 1, 0), (0, 0, 1)} é ortonormal.
(2) Considere P2 (R) munido do produto interno
h , i : P2 (R) × P2 (R) → R
R1
(p(x), q(x)) 7→ 0 p(x)q(x)dx.
O conjunto {x, 2x2 − 1} é ortogonal. De fato,
Z 1
2 2 x4 x2 1 1 1
hx, 2x − 1i = x(2x − 1)dx = 2 − = − = 0.
0 4 2 0 2 2

Proposição 2.2. Sejam V um espaço vetorial e h , i um produto interno


em V . Seja A um subconjunto ortogonal de V constituı́do de vetores não
nulos.
(i) Se v ∈ V é combinação linear de v1 , ..., vn ∈ A, então
n
X hv, vi i
v= vi .
||vi ||2
i=1

(ii) A é linearmente independente.

Demonstração.

2Este exemplo, junto com o anterior, serve para mostrar que a norma de um vetor depende
do produto interno considerado.
2. ORTOGONALIDADE 81

(i) Sejam α1 , ..., αn ∈ R tais que v = α1 v1 + ... + αn vn . Para cada


i ∈ {1, ..., n}, temos que
* n + n
X X
hv, vi i = αj vj , vi = αj hvj , vi i = αi hvi , vi i = αi ||vi ||2
j=1 j=1

hv,vi i
pois A é ortogonal. Logo, αi = ||vi ||2
o que implica
n
X hv, vi i
v= vi .
||vi ||2
i=1

(ii) Sejam v1 , ..., vn ∈ A distintos e α1 , ..., αn ∈ R tais que α1 v1 +...+αn vn =


0. Para cada i ∈ {1, ..., n}, temos que

0 = h0, vi i = hα1 v1 + ... + αn vn , vi i = αi ||vi ||2 .

Como os elementos de A são não nulos, segue que ||vi || =


6 0 e, portanto,
αi = 0. Logo, A é linearmente independente. 

O seguinte corolário é uma conseqüência imediata do item (i) da


proposição 2.2.

Corolário 2.3. Sejam V um espaço vetorial e h , i um produto interno


em V . Seja {v1 , ..., vn } uma base ortonormal de V . Se v ∈ V , então
n
X
v= hv, vi ivi .
i=1

2.1. O processo de ortonormalização de Gram-Schmidt. Sejam


V um espaço vetorial, h , i um produto interno em V e {v1 , ..., vn } um
subconjunto linearmente independente de V . Vamos construir {w1 , ..., wn }
um subconjunto ortonormal de V tal que [w1 , ..., wn ] = [v1 , ..., vn ].
A construção é feita por indução. Definamos w̃1 = v1 e façamos
w1 = w̃1 /||w̃1 ||. Definamos w̃2 = v2 − hv2 , w1 iw1 e façamos w2 = w̃2 /||w̃2 ||.
Observe que w2 6= 0, uma vez que {v1 , v2 } é linearmente independente. Além
disso, w2 ⊥ w1 . Seja k < n e suponhamos definidos w1 , ..., wk . Definamos
k
X
w̃k+1 = vk+1 − hvk+1 , w1 iw1 − ... − hvk+1 , wk iwk = vk+1 − hvk+1 , wj iwj
j=1

e façamos wk+1 = w̃k+1 /||w̃k+1 ||. Não é difı́cil ver que o conjunto
{w1 , ..., wn } é ortonormal e, portanto, linearmente independente. Observe
também que wi ∈ [v1 , ..., vn ] qualquer que seja i ∈ {1, ..., n}. Como
2. ORTOGONALIDADE 82

dim[v1 , ..., vn ] = n segue que {w1 , ..., wn } é uma base de [v1 , ..., vn ] e,
portanto, [w1 , ..., wn ] = [v1 , ..., vn ].
Exemplos.

(1) Considere R3 munido do produto interno usual. Vamos aplicar


o processo de ortonormalização de Gram-Schmidt à base B =
{(1, 0, 0), (0, 1, 1), (0, 1, 2)} de R3 . Façamos w̃1 = (1, 0, 0). Como
||w̃1 || = 1, segue que w1 = (1, 0, 0). Façamos, agora, w̃2 =

(0, 1, 1) − h(0, 1, 1), (1, 0, 0)i(1, 0, 0) = (0, 1, 1). Como ||w̃2 || = 2,
√ √
temos que w2 = (0, 1/ 2, 1/ 2). Por fim, façamos w̃3 = (0, 1, 2) −
√ √ √ √
h(0, 1, 2), (1, 0, 0)i(1, 0, 0) − h(0, 1, 2), (0, 1/ 2, 1/ 2)i(0, 1/ 2, 1/ 2) =
√ √ √
(0, −1/2, 1/2). Como ||w̃3 || = 1/ 2, temos que w3 = (0, − 2/2, 2/2).
Portanto, {w1 , w2 , w3 } é uma base ortogonal de R3 .
(2) Considere R3 munido do produto interno usual e W o subespaço vetorial
de R3 dado por W = {(x, y, z) ∈ R3 : x − 2y = 0}. Queremos
encontrar uma base ortonormal de W . Observe que os elementos de
W são da forma (2y, y, z), com y, z ∈ R. Portanto, {(0, 0, 1), (2, 1, 0)}
é uma base de W . Vamos aplicar o processo de ortonormalização
de Gram-Schmidt à base {(0, 0, 1), (2, 1, 0)}. Façamos w̃1 = (0, 0, 1).
Como ||w̃1 || = 1, segue que w1 = (0, 0, 1). Façamos, agora, w̃2 =

(2, 1, 0) − h(2, 1, 0), (0, 0, 1)i(0, 0, 1) = (2, 1, 0). Como ||w̃2 || = 5, temos
√ √
que w2 = (2/ 5, 1/ 5, 0). Portanto, {w1 , w2 } é uma base ortonormal
de W .
(3) Considere P2 (R) munido do produto interno hp(x), q(x)i =
R1
0 p(x)q(x)dx. Vamos aplicar o processo de ortonormalização de Gram-
R1 2
2
Schmidt à base {1, x, x }. Façamos w̃1 = 1. Como ||w̃1 || = 0 1 dx = 1,
segue que w1 = 1. Façamos, agora, w̃2 = x − hx, 1i1 = x − 1/2.
√ √
Como ||w̃2 || = 1/(2 3), temos que w2 = 3(2x − 1). Por fim, façamos
√ √
w̃3 = x2 − hx2 , 1i1 − hx2 , 3(2x − 1)i 3(2x − 1) = x2 − x + 1/6. Calcule
||w̃3 || e obtenha w3 = w̃3 /||w̃3 ||. Temos que {w1 , w2 , w3 } é uma base
ortogonal de P2 (R).

Corolário 2.4. Se V é um espaço vetorial de dimensão finita com


produto interno, então V possui uma base ortonormal.

Demonstração. Seja {v1 , ..., vn } uma base de V . Aplicando o


processo de ortonormalização de Gram-Schmidt, obtemos {w1 , ..., wn } um
subconjunto ortonormal e gerador de V . Da proposição 2.2 segue que
2. ORTOGONALIDADE 83

{w1 , ..., wn } é linearmente independente. Logo, {w1 , ..., wn } é uma base


ortonormal de V . 

A vantagem de trabalhar com bases ortonormais é que, neste caso,


o produto interno pode ser descrito em termos das coordenadas de seus
argumentos numa base ortonormal fixada. Em outras palavras, se V é um
espaço vetorial, h , i é um produto interno em V , B = {v1 , ..., vn } é uma
base ortonormal de V e u, v ∈ V , então
n
X
hu, vi = αi β i
i=1

onde α1 , ..., αn , β1 , ..., βn ∈ R são tais que [u]B = (α1 , ..., αn ) e [v]B =
(β1 , ..., βn ).

2.2. Subespaço ortogonal.

Proposição 2.5. Sejam V um espaço vetorial, h , i um produto interno


em V e S um subconjunto de V . O conjunto

S ⊥ = {v ∈ V : hv, ui = 0, ∀u ∈ S}

é um subespaço vetorial de V , denominado subespaço de V ortogonal a S.

Demonstração. Observe que 0 ∈ S ⊥ . Se v1 , v2 ∈ S ⊥ e u ∈ S, então


hv1 + v2 , ui = hv1 , ui + hv2 , ui = 0 + 0 = 0. Logo, v1 + v2 ∈ S ⊥ . Por fim,
se α ∈ R, v ∈ S ⊥ e u ∈ S, então hαv, ui = αhv, ui = α0 = 0. Portanto,
αv ∈ S ⊥ . 

Observe que S ⊥ é um subespaço vetorial de V , mesmo que S não o seja.


Note também que se S = {0}, então S ⊥ = V e que se S contém uma base
de V , então S ⊥ = {0}.
Exemplo.
(1) Considere R4 munido do produto interno usual
e W = [(1, 0, 1, 1), (1, 1, 2, 0)] ⊂ R4 . Temos que (x, y, z, w) ∈ W ⊥ se,
e somente se, h(x, y, z, w), (1, 0, 1, 1)i = 0 e h(x, y, z, w), (1, 1, 2, 0)i = 0,
ou seja, se e somente se
(
x+z+w = 0
x + y + 2z = 0

o que implica x = −z − w e y = −z + w. Logo, W ⊥ =


[(−1, −1, 1, 0), (−1, 1, 0, 1)].
2. ORTOGONALIDADE 84

Proposição 2.6. Sejam V um espaço vetorial de dimensão finita e h , i


um produto interno em V . Se W é um subespaço vetorial de V , então
V = W ⊕ W ⊥.

Demonstração. Seja B = {w1 , ..., wn } uma base ortonormal de W .


Se v ∈ V , então

u = v − hv, w1 iw1 − ... − hv, wn iwn

é ortogonal a todos os elementos de W . Portanto, u ∈ W ⊥ . Logo,

v = (hv, w1 iw1 + ... + hv, wn iwn ) + u

é a soma de um elemento de W com um elemento de W ⊥ . Portanto,


V = W + W ⊥ . Resta mostrar que W ∩ W ⊥ = {0}. Para tanto, seja
v ∈ W ∩ W ⊥ . Como v ∈ W ⊥ , temos que v é ortogonal a todo elemento
de W . Do fato de v pertencer a W decorre que v é ortogonal a si próprio.
Logo, hv, vi = 0, o que implica v = 0. Portanto, V = W ⊕ W ⊥ . 
Da proposição 2.6 decorre imediatamente o seguinte corolário.

Corolário 2.7. Sejam V um espaço vetorial de dimensão finita e h , i


um produto interno em V . Se W é um subespaço vetorial de V , então

dim V = dim W + dim W ⊥ .

Definição 2.8. Sejam V um espaço vetorial de dimensão finita, h , i


um produto interno em V , W um subespaço vetorial de V e v ∈ V . Existem
únicos w ∈ W e u ∈ W ⊥ tais que v = w + u. O vetor w é denominado
projeção ortogonal de v sobre W .3

Exemplos.
(1) Considere R4 munido do produto interno usual. A projeção ortogonal
de (1, 1, 1, 1) em W = [(1, 1, 0, 0), (0, 0, 1, 1)] é igual a (1, 1, 1, 1), pois
(1, 1, 1, 1) ∈ W .
(2) Considere P2 (R) munido do produto interno definido no exemplo 3 da
seção 1. Vamos determinar a projeção ortogonal de v = 2x − 1 em

W = [x]. Temos que {x 3} é uma base ortonormal de W . Logo, a
√ √
projeção ortogonal de v em W é dada por h2x − 1, x 3ix 3 = 12 x.

3Observe que se {w , ..., w } é uma base ortonormal de W , então a projeção ortogonal de


1 n
Pn
v sobre W é dada por i=1 hv, vi ivi .

Você também pode gostar

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy