358
8/16/2019 Álgebra Linear, Elon Lages Lima http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 1/358

Álgebra Linear, Elon Lages Lima

Embed Size (px)

Citation preview

Page 1: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 1/358

Page 2: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 2/358

 

Álgebra Linear 

Este livro ganhou o prêmio Jabuti deCiências Exatas e Tecnologia, outorgado

pela Câmara Brasileira do Livro, em 1996

Page 3: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 3/358

 

Lima, Elon LagesÁlgebra linear / Elon Lages Lima. 1.ed. Rio de Janeiro :

IMPA, 2014.357 p. : il. ; 23 cm. (Coleção matemática universitária)

Inclui bibliografia.

e-ISBN 978-85-244-0390-31. Matrizes. 2. Espaços Vetoriais. I. Título. II. Série.

CDD-512

Page 4: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 4/358

COLEÇÃO MATEMÁTICA UNIVERSITÁRIA

Álgebra Linear

Elon Lages Lima

INSTITUTO NACIONAL DE MATEM TICA PURA E APLICADA

Page 5: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 5/358

Copyright © 2014 by Elon Lages Lima

Impresso no Brasil / Printed in Brazil

Capa: Rodolfo Capeto, Noni Geiger e Sérgio R. Vaz

Coleção Matemática UniversitáriaComissão Editorial: 

Elon Lages LimaS. Collier CoutinhoPaulo Sad

Títulos Publicados:

• 

Análise Real, vol. 1: Funções de uma Variável – Elon Lages Lima•  EDP. Um Curso de Graduação – Valéria Iório•  Curso de Álgebra, Volume 1 – Abramo Hefez•  Álgebra Linear – Elon Lages Lima•  Introdução às Curvas Algébricas Planas – Israel Vainsencher•  Equações Diferenciais Aplicadas – Djairo G. de Figueiredo e Aloisio Freiria Neves•  Geometria Diferencial – Paulo Ventura Araújo•  Introdução à Teoria dos Números – José Plínio de Oliveira Santos•  Cálculo em uma Variável Complexa – Marcio G. Soares

• 

Geometria Analítica e Álgebra Linear – Elon Lages Lima•  Números Primos: Mistérios e Recordes – Paulo Ribenboim•  Análise no Espaço Rn – Elon Lages Lima•  Análise Real, vol. 2: Funções de n Variáveis – Elon Lages Lima•  Álgebra Exterior – Elon Lages Lima•  Equações Diferenciais Ordinárias – Claus Ivo Doering e Artur Oscar Lopes•  Análise Real, vol. 3: Análise Vetorial – Elon Lages Lima•  Álgebra Linear. Exercícios e Soluções – Ralph Costa Teixeira•  Números Primos. Velhos Mistérios e Novos Recordes – Paulo Ribenboim

Distribuição:IMPAEstrada Dona Castorina, 11022460-320 Rio de Janeiro, RJe-mail: [email protected]://www.impa.br

Page 6: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 6/358

Prefacio

´ Algebra Linear e o estudo dos espacos vetoriais e das transformacoes

lineares entre eles. Quando os espacos tem dimensoes finitas, astransformacoes lineares possuem matrizes. Tambem possuem ma-

trizes as formas bilineares e, mais particularmente, as formas qua-

draticas. Assim a   ´ Algebra Linear, alem de vetores e transformacoes

lineares, lida tambem com matrizes e formas quadraticas. Sao nu-

merosas e bastante variadas as situacoes, em Matematica e em suas

aplicacoes, onde esses objetos ocorrem. Daı a importancia central da´ Algebra Linear no ensino da Matematica.

O presente livro apresenta uma exposicao introdutoria de   ´ Alge-

bra Linear. Ele nao pressupoe conhecimentos anteriores sobre o as-

sunto. Entretanto convem lembrar que a posicao natural de um tal

curso no currıculo universitario vem apos um semestre (pelo menos)

de Geometria Analıtica a duas e tres dimensoes, durante o qual o

estudante deve adquirir alguma familiaridade, em nıvel elementar,

com a representacao alg ebrica de ideias geometricas e vice-versa.

Tornou-se quase obrigatorio, ja faz alguns anos, dedicar as pri-

meiras sessenta ou mais paginas de todo livro de   ´ Algebra Linear ao

estudo dos sistemas de equacoes lineares pelo metodo da eliminacaogaussiana, motivando assim a introducao das matrizes e dos deter-

minantes. Somente depois disso sao definidos os espacos vetoriais.

Esse costume nao  e seguido neste livro, cuja primeira sentenca

e a definicao de espaco vetorial. Mencionarei tres razoes para isso:

(a) A definicao de   ´ Algebra Linear dada acima; (b) Nao vejo vantagem

em longas motivacoes; (c) Sistemas lineares sao entendidos mais in-

teligentemente depois que ja se conhecem os conceitos basicos de

´ Algebra Linear. De resto, esses conceitos (nucleo, imagem, base,posto, subespaco, etc), quando estudados independentemente, tem

muitas outras aplicacoes.

Page 7: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 7/358

O metodo da eliminacao gaussiana  e apresentado na Secao 9 e

retomado na Secao 17. Ele  e aplicado para obter respostas a varios

outros problemas alem da resolucao de sistemas lineares.O livro  e dividido em vinte e duas secoes. As oito primeiras de-

senvolvem os conceitos fundamentais e as proposicoes basicas, que

formam a linguagem mınima necessaria para falar inteligentemente

sobre   ´ Algebra Linear. A nona secao faz a primeira aplicacao dessas

ideias, tratando da eliminacao gaussiana.

 A partir da Secao 10, os espacos dispoem de produto interno,

o que possibilita o emprego de evocativas nocoes geometricas como

perpendicularismo, comprimento, distancia, etc. Sao destacados

tipos particulares de operadores lineares, cujas propriedades

especiais sao demonstradas nas Secoes 13, 14 e 15. O Teorema

Espectral para operadores auto-adjuntos   e provado na Secao 13,

onde se demonstra tambem o Teorema dos Valores Singulares

(Teorema 13.10), cuja grande utilidade nao corresponde  a sua cons-

pıcua ausencia na maioria dos textos elementares.

Outro assunto igualmente importante e igualmente esquecido

no ensino da   ´ Algebra Linear  e a pseudo-inversa, que expomos na

Secao 16. Trata-se de um topico f acil, atraente, de grande apelo

geometrico, que constitui um bom campo de aplicacao para os con-

ceitos anteriormente estudados.

 A Secao 17  e um interludio matricial, onde se mostra como as

propriedades das transformacoes lineares estudadas antes se tradu-

zem imediatamente em fatos nao-triviais sobre matrizes, principal-

mente algumas decomposicoes de grande utilidade nas computacoes.

 As formas bilineares e quadraticas sao estudadas na Secao 18,

onde  e estabelecida a correspondencia fundamental (isomorfismo)entre formas e operadores (Teorema 18.2) e provado o Teorema dos

Eixos Principais (Teorema 18.3), que  e a versao do Teorema Espec-

tral para formas quadraticas.  E ainda exposto o metodo de Lagrange

para reduzir uma forma quadratica a uma soma (ou diferenca) de

quadrados e e feito um estudo das superf ıcies quadricas.

Os determinantes sao estudados na Secao 19, onde se define di-

retamente o determinante de um operador sem recurso a bases nem

matrizes. Em seguida, o determinante de uma matriz n × n  e ca-racterizado como a  unica funcao n-linear alternada de suas colunas

(ou linhas) que assume o valor 1  na matriz unitaria. A colocacao dos

Page 8: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 8/358

determinantes quase no final do livro, depois de ja terem sido es-

tabelecidos os resultados principais da   ´ Algebra Linear e ensinados

os metodos mais eficientes para resolver sistemas, inverter matri-zes etc,  e uma atitude deliberada, que visa por esse conceito em seu

devido lugar. Trata-se de uma nocao de grande importancia teorica,

indispensavel em varias  areas da Matematica, a qual foi, e ainda

nao deixou inteiramente de ser, equivocadamente considerada como

instrumento computacional. Usar a Regra de Cramer para resolver

um sistema linear, ou calcular o determinante de um operador para

ver se ele  e invertıvel ou nao, sao metodos que funcionam bem no

caso  2

×2, e ate mesmo 3

×3, mas se tornam altamente inviaveis a

partir daı.

Depois que se tem os determinantes, o polinomio caracterıstico e

estudado na Secao 20. Esse estudo se completa na Secao 21 com a

introducao dos espacos vetoriais complexos, nos quais vale o notavel

fato de que todo operador possui autovetores, logo pode ser triangu-

larizado. Este resultado e devidamente explorado, o que concede a

esta secao um ar de happy ending para a teoria, mas nao o fim do

livro.

 A secao final, numero 22, apresenta uma breve exposicao dasequacoes a diferencas finitas, essencialmente limitada  as equacoes

(e sistemas) lineares de segunda ordem. Basicamente, trata-se de

obter metodos eficazes de calcular as potencias sucessivas de um

operador ou de suas matrizes.

Esta introducao  a   ´ Algebra Linear reflete uma longa experiencia

como usuario do assunto e, nos  ultimos dez anos, como professor.

 Ao escreve-la, fui influenciado pelas reacoes dos meus alunos, suas

participacoes nas aulas e suas palavras de incentivo. Um agradeci-mento especial por esse motivo  e devido aos estudantes da E.P.G.E.

da Fundacao Getulio Vargas. Agradeco ao meu colega Jonas de Mi-

randa Gomes por me ter convencido de que ainda havia lugar para

mais um livro nesta area e por suas sugestoes, sempre objetivas, que

contribuıram para melhorar a comunicabilidade. Agradeco tambem

a Wilson L. de Goes pela incrıvel eficiencia e grande boa vontade na

preparacao do manuscrito.

Rio de Janeiro, maio de 1995

Elon Lages Lima

Page 9: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 9/358

Prefacio da Segunda Edicao A boa acolhida dispensada a primeira edicao, esgotada rapidamente,

animou-me a fazer nesta algumas modificacoes, que enumero a se-

guir.

Foi feita uma extensa revisao do texto, eliminando-se varios

erros de impressao, exercıcios incorretamente propostos e trechos

obscuros ou imprecisos. Para este trabalho, vali-me da colaboracao

de diversos leitores, dentre os quais destaco, de modo muito especial,

o Professor Florencio Guimaraes, que elaborou uma lista minuciosa

de correcoes. A todos esses amigos registro meus sinceros agradeci-

mentos.O numero de exercıcios foi consideravelmente aumentado com a

inclusao, em especial, de mais problemas elementares de natureza

computacional, visando fazer com que os leitores menos experientes

ganhem confianca em si ao lidarem com assuntos novos.

 A Secao 15 foi inteiramente reescrita, passando a tratar dos ope-

radores normais em espacos vetoriais reais, um assunto f acil, atra-

ente e muitas vezes negligenciado. A antiga Secao 15 (operadores

anti-simetricos) tornou-se um mero caso particular. Sem esforco(nem espaco) adicional, o tratamento ganhou uma abrang encia bem

maior.

 Atendendo a varios pedidos, acrescentei ao livro um Apendice

sobre a forma canonica de Jordan, tratando esse tema de modo sim-

ples, nao apenas sob o ponto de vista matricial mas formulando-o

tambem sob o aspecto de operadores.

Rio de Janeiro, setembro de 1996

Elon Lages Lima

Prefacio da Oitava EdicaoEsta edicao, alem de conter novas correcoes sugeridas pela atenta

vigilancia do Professor Florencio Guimaraes, deu-me oportunidade

de acrescentar a lista de indicacoes bibliograficas o livro do Professor

Ralph Costa Teixeira, que traz as solucoes de todos os exercıcios aqui

propostos.

Rio de Janeiro, outubro de 2009Elon Lages Lima

Page 10: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 10/358

Conteudo

1   Espacos Vetoriais   1

2   Subespacos   9

3   Bases   24

4   Transformacoes Lineares   38

5   Produto de Transformacoes Lineares   51

6   Nucleo e Imagem   58

7   Soma Direta e Projecao   75

8   A Matriz de uma Transformacao Linear   83

9   Eliminacao   101

10 Produto Interno   118

11 A Adjunta   133

12 Subespacos Invariantes   145

13 Operadores Auto-Adjuntos   156

14 Operadores Ortogonais   174

15 Operadores Normais (Caso Real)   189

16 Pseudo-inversa   195

5

Page 11: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 11/358

17 Topicos Matriciais   204

18  Formas Quadraticas   224

19 Determinantes   245

20 O Polinomio Caracterıstico   268

21 Espacos Vetoriais Complexos   280

22 Equacoes a Diferencas Finitas   299

Apendice: A Forma Canonica de Jordan   321

Indicacoes Bibliograficas   335

Lista de Sımbolos   341

Indice Remissivo   343

Page 12: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 12/358

1

Espacos Vetoriais

 A noc ˜ ao de espaco vetorial ´  e a base do estudo que faremos; ´  e o terreno

onde se desenvolve toda a   ´  Algebra Linear. Esta sec ˜ ao apresenta os

axiomas de espaco vetorial, deduz suas conseq¨ uˆ encias mais imedia-

tas e exibe os exemplos mais importantes dessa noc ˜ ao.

Um espaco vetorial E

 e um conjunto, cujos elementos sao chama-

dos  vetores, no qual estao definidas duas operacoes: a  adic ˜ ao, que a

cada par de vetores u, v ∈ E faz corresponder um novo vetor u + v ∈ E,

chamado a soma de u  e v, e a multiplicac ˜ ao por um n´ umero real, que

a cada numero α  ∈ R e a cada vetor v ∈ E  faz corresponder um vetor

α · v, ou  αv, chamado o  produto  de  α  por  v. Essas operacoes devem

satisfazer, para quaisquer α, β ∈ R e u, v, w ∈ E, as condicoes abaixo,

chamadas os axiomas de espaco vetorial:

comutatividade:   u + v =  v + u ;associatividade:   ( u + v) +  w =  u + ( v + w) e  (αβ) v =  α (βv);

vetor nulo:   existe um vetor 0 ∈  E, chamado  vetor nulo, ou  vetor

 zero, tal que v + 0 =  0 + v =  v  para todo v ∈ E;

inverso aditivo:   para cada vetor  v ∈   E  existe um vetor  − v ∈   E,

chamado o   inverso aditivo, ou o   sim´  etrico   de   v, tal que   − v  +  v   =

 v + (− v) = 0;

distributividade:   (α + β) v = αv + βv e  α ( u + v) = αu + αv;

multiplicac  ao por 1:   1 · v =  v.

Page 13: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 13/358

2   Espacos Vetoriais Secao 1

Observac ˜ ao: O mesmo sımbolo 0  representa o vetor nulo e o nume-

ro zero.

Exemplo 1.1.  Para todo numero natural n, o sımbolo Rn representa

o espaco vetorial euclidiano n-dimensional. Os elementos de  Rn sao

as listas ordenadas   u   = (α 1, . . . , α  n),   v   = (β1, . . . , βn)   de numeros

reais.

Por definicao, a igualdade vetorial u  =  v  significa as n igualdades

numericas α 1  = β1, . . . , α  n  = βn.

Os numeros α 1, . . . , α  n  sao chamados as coordenadas do vetor u .

 As operacoes do espaco vetorial Rn sao definidas pondo

 u + v = (α 1 + β1, . . . , α  n + βn),

α · u  = (αα 1, . . . , α α  n).

O   vetor zero   e, por definicao, aquele cujas coordenadas sao todas

iguais a zero:  0 = (0 , 0 , . . . , 0).

O inverso aditivo de   u   = (α 1, . . . , α  n)   e   − u   = (−α 1, . . . , −α n).

 Verifica-se, sem dificuldade, que estas definicoes fazem de  Rn um

espaco vetorial. Para n  =  1, tem-se  R1 =  R  = reta numerica.  R2 e oplano euclidiano e  R3 e o espaco euclidiano tridimensional da nossa

experiencia cotidiana.

Para ajudar a compreensao, os vetores de  R2 e  R3 podem ser re-

presentados por flechas com origem no mesmo ponto O. A soma u + v

e a flecha que liga a origem  O  ao vertice que lhe  e oposto no parale-

logramo que tem u  e  v  como lados. (Veja Figura 1.1.)

 v

 v+

u

u

0

Figura 1.1 – Soma de vetores.

Page 14: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 14/358

Secao 1 Espacos Vetoriais   3

Por sua vez, o produto αu  e a flecha colinear a u , de comprimento

α  vezes o comprimento de  u , com o mesmo sentido de  u  se  α > 0  e

com sentido oposto se  α < 0.Exemplo 1.2.  Os elementos do espaco vetorialR∞ sao as sequencias

infinitas  u  = (α 1, . . . , α  n, . . . ), v  = (β1, . . . , βn, . . . ) de numeros reais.

O elemento zero de R∞ e a sequencia 0  = (0 , . . . , 0 , . . . ), formada por

infinitos zeros, e o inverso aditivo da sequencia  u  = (α 1, . . . , α  n, . . . )

e  − u   = (−α 1, . . . , −α n, . . . ). As operacoes de adicao e multiplicacao

por um numero real sao definidas por

 u + v = (α 1 + β1, . . . , α  n + βn, . . . ),

α · u  = (αα 1, . . . , α α  n, . . . ).

Exemplo 1.3.   Uma  matriz   (real)   m  × n   a   = [aij ]   e uma lista de

numeros reais  aij  com ındices duplos, onde  1 ≤   i ≤  m  e  1 ≤   j ≤  n.

Costuma-se representar a matriz  a  como um quadro numerico com

m  linhas e n  colunas, no qual o elemento aij  situa-se no cruzamento

da i-esima linha com a j-esima coluna:

a =

a11   a12   · · ·   a1na21   a22   · · ·   a2n

...  ...

  ...  ...

am1   am2   · · ·   amn

.

O vetor  (ai1, ai2, . . . , ain) ∈  Rn e o i-esimo vetor-linha  da matriz  a e

o vetor (a1j, a2j, . . . , amj) ∈ Rm  e o j-esimo vetor-coluna de  a. Quando

m  = n, diz-se que a e uma matriz quadrada. O conjunto M(m ×n) de

todas as matrizes m ×

n torna-se um espaco vetorial quando nele se

define a soma das matrizes  a  = [aij ] e b  = [bij ] como a + b = [aij + bij ]

e o produto da matriz   a   pelo numero real   α   como   α a   = [αaij ]. A 

matriz nula  0 ∈   M(m × n)  e aquela formada por zeros e o inverso

aditivo da matriz a  = [aij ]  e −a = [−aij ].

Exemplo 1.4.   Seja  X  um conjunto nao-vazio qualquer. O sımbolo

F (X;R) representa o conjunto de todas as funcoes reais f, g :  X

→R.

Ele se torna um espaco vetorial quando se definem a soma f +  g  de

duas funcoes e o produto α · f do numero α  pela funcao f  da maneiranatural:

(f + g)(x) = f(x) + g(x),   (αf)(x) = α · f(x).

Page 15: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 15/358

4   Espacos Vetoriais Secao 1

 Variando o conjunto   X, obtem-se diversos exemplos de espacos

vetoriais da forma F (X;R). Por exemplo, se   X   =   {1 , . . . , n}   entao

F (X;R

) = R

n

; se X  = N

 entao F (X;R

) = R∞

; se X  e o produto carte-siano dos conjuntos {1 , . . . , m  } e  {1 , . . . , n} entao F (X;R) = M(m × n).

Outros exemplos de espacos vetoriais ocorrem como subespacos,

como veremos a seguir.

 Valem num espaco vetorial, como consequencias dos axiomas, as

regras operacionais habitualmente usadas nas manipulacoes nume-

ricas. Vejamos algumas delas.

1.   Se  w  + u  = w + v  ent   ao  u  = v. Em particular,  w + u  = w implica

 u  =  0  e  w + u  =  0  implica u  = − w.Com efeito, da igualdade  w + u  =  w + v segue-se que

 u  =  0 + u  = (− w + w) +  u 

= − w + ( w + u )

= − w + ( w + v)

= (− w + w) +  v

= 0 + v =  v.

Em particular,  w +  u  =  w   implica  w +  u  =  w +  0, logo  u  =  0. E se

 w + u  = 0  entao w + u  = w + (− w) logo u  = − w.

2.   Dados  0 ∈  R  e  v ∈  E  tem-se  0 ·  v  =  0 ∈  E. Analogamente, dados 

α  ∈ R e  0 ∈ E, vale  α · 0 =  0.

Com efeito, v + 0 · v =  1 · v + 0 · v = (1 + 0) · v =  1 · v =  v, logo 0 · v =  0

como vimos acima. De modo analogo, como α ·0+α ·0 =  α ·(0+0) = α ·0,

segue-se de 1) que  α · 0 = 0.

3.  Se  α  = 0  e  v = 0  ent   ao  α · v = 0.Com efeito, se fosse   α  · v   =   0   entao   v   =   1 · v   = (α −1 ·  α ) v   =

α −1 · (αv) = α −1 · 0 =  0, isto e, terıamos v  =  0.

4.  (−1) · v = − v.

Com efeito,

 v + (−1) · v =  1 · v + (−1) · v = (1 + (−1)) · v =  0 · v = 0,

logo (−1) v = − v, pela regra 1.

No que se segue, escreveremos   u  −  v   para significar   u  + (− v).Evidentemente,

 u − v =  w ⇔  u  =  v + w.

Page 16: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 16/358

Secao 1 Espacos Vetoriais   5

Exemplo 1.5. Sejam   u   = (a, b)   e   v   = (c, d)   vetores em   R2 com

 u  =   0, isto  e,   a =   0  ou  b =   0. A fim de que  v  seja multiplo de  u ,

isto  e,   v   =   αu  para algum  α  ∈   R,  e necessario e suficiente que setenha  ad −  bc   =  0. A necessidade e imediata pois  v  =  αu  significa

c   =   αa  e  d   =   αb. Multiplicando a primeira destas igualdades por

b  e a segunda por  a  obtemos  bc   =   αab  e  ad   =   αab, logo  ad   =   bc,

ou seja,  ad −  bc   =   0. Reciprocamente, se  ad   =   bc  entao, supondo

a = 0, obtemos d  = (c/a)b. Alem disso,  e claro que c  = (c/a)a. Logo,

pondo  α  =  c/a, vem  d  =  αb  e  c  =  αa,. isto e  v  =  αu . Se for  b =  0,

tomaremos α  =  d/b  para ter v  =  αu .

Exercıcios

1.1.  Dadas as matrizes

a =

1   −1 2

3 2   −1

 ,   b =

 2 3 0

−2   −3 1

e

c =

− 4   −8 412 13 1

  :

(a) Calcule a matriz 3a − 2b + c.

(b) Ache numeros α e β, ambos diferentes de zero, tais que α a+βb+c

tenha a primeira coluna nula.

1.2.  Mostre que as operacoes definidas no texto fazem realmente dos

conjuntos Rn, M(m 

×n) e

F (X;R) espacos vetoriais.

1.3.  Ache o valor de  t  que torna a matriz abaixo igual  a matriz nula:t2 − 1 t2 − t

t3 − 1 t2 − 3t + 2

  .

1.4.  Determine os vetores  u, v ∈  R 4 sabendo que as coordenadas de

 u  sao todas iguais, a  ultima coordenada de  v  e igual a 3 e  u  +  v   =

(1,2,3,4).

1.5.  Dados u  = (1,2,3), v  = (3,2,0) e  w  = (2,0,0), ache numeros α , β

e γ  tais que αu + βv + γw = (1,1,1).

Page 17: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 17/358

6   Espacos Vetoriais Secao 1

1.6.   Dados os vetores   v1   = (1,2,1),   v2   = (2,1,2),   v3   = (3,3,2)   e

 v 4   = (1,5, −1)  em  R3, determine os vetores  u   =  v1  − 3v2  + 2v3  − v 4,

 v =  v1 +  v2 −  v3 −  v 4  e w  =  v3 −

  1

3 v2 −

  4

3 v1.1.7.  Considere a seguinte afirmacao: “Num espaco vetorial  E  existe

um  unico vetor nulo e cada elemento de  E  possui um  unico inverso”.

Qual fato demonstrado nesta secao assegura que esta afirmacao  e

verdadeira?

1.8.  Use os axiomas do espaco vetorial E  para provar que, se v ∈ E  e

n  e um numero natural entao n · v =  v + · · · + v (n parcelas).

1.9.  Sejam u , v  vetores nao-nulos do espaco vetorial E. Prove que v  emultiplo de u  se, e somente se,  u  e multiplo de v. Que se pode dizer

caso nao suponhamos u  e  v  ambos diferentes de zero?

1.10.   Sejam u  = (x1, . . . , xn) e v  = ( y1, . . . , yn) vetores em  Rn. Prove

que um deles  e multiplo do outro se, e somente se,  xi y j   =  x j yi   para

quaisquer  i, j =  1, . . . , n.

1.11.   Use as relacoes  2( u  +  v) =  2u  +  2v,  2w   =  w +  w  para provar

que a comutatividade  u  +  v  =  v +  u  pode ser demonstrada a partir

dos demais axiomas de espaco vetorial.

1.12. Em R2, mantenhamos a definicao do produto αv de um numero

por um vetor mas modifiquemos, de 3 maneiras diferentes, a defini-

cao da soma   u  + v   dos vetores   u   = (x, y)   e   v   = (x′, y′). Em cada

tentativa, dizer quais axiomas de espaco vetorial continuam validos

e quais sao violados:

(1)   u + v = (x + y′, x′ +  y);

(2)   u + v = (xx′, yy′);

(3)   u + v = (3x + 3x′, 5x + 5x′).

1.13.  Defina a m ´  edia u ∗ v entre dois vetores u , v no espaco vetorial

E  pondo  u  ∗ v   =   12 u  +   1

2 v. Prove que   ( u  ∗ v) ∗ w   =   u  ∗ ( v ∗ w)  se, e

somente se, u  =  w.

1.14.   Dados os espacos vetoriais   E1,   E2, considere o conjunto   E   =

E1 ×  E2   (produto cartesiano de   E1   por   E2), cujos elementos sao os

pares ordenados v  = ( v1, v2), com v1 ∈ E1  e v2 ∈ E2. Defina operacoesque tornem   E   um espaco vetorial. Verifique a validez de cada um

dos axiomas e mostre que sua definicao se estende para o caso de

Page 18: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 18/358

Secao 1 Espacos Vetoriais   7

n  espacos vetoriais  E1, . . . , En, ou mesmo de uma sequencia infinita

E1, E2, . . . , En, . . . .

1.15.   Sejam  X  um conjunto qualquer e  E  um espaco vetorial. Mos-tre que, com as definicoes naturais, o conjunto F (X; E)  das funcoes

f :  X → E  se torna um espaco vetorial. Identifique os casos particu-

lares em que X  =  {1 , . . . , n}, X  =  N, X  = A × B, onde A  =  {1 , . . . , m  } e

B =  {1 , . . . , n}.

1.16.   Dados os vetores  u  = (1,2,3),  v  = (3,2,1)  e  w  = (−3,2,7)  em

R3, obtenha numeros  α ,  β  tais que  w  =  αu  +  βv. Quantas solucoes

admite este problema?

1.17.   Sejam  u  = (1, 1),  v  = (1, 2)  e w  = (2, 1). Ache numeros a, b,  c,

a′,  b′,  c′, todos nao-nulos, tais que  au  +  bv  +  cw  =  a′ u  +  b′ v +  c′ w,

com a′ = a, b′ = b, c′ = c.

1.18.   Sejam  E  um espaco vetorial e  u, v ∈  E. O  segmento de reta  de

extremidades  u , v  e, por definicao, o conjunto

[ u, v ] = {(1 − t) u + tv;   0 ≤ t ≤ 1}.

Um conjunto X ⊂ E  chama-se convexo quando  u, v ∈ X ⇒ [ u, v ] ⊂ X.(Ou seja: o segmento de reta que liga dois pontos quaisquer de  X

esta contido em X.) Prove:

(a) A intersecao X1 ∩ . . . ∩ Xm  de conjuntos convexos X1, . . . , Xm  ⊂ E  e

um conjunto convexo.

(b) Dados   a,b,c ∈   R, o conjunto   X   =   {(x, y) ∈   R2; ax  + by ≤   c}  e

convexo em R2.

(c) O conjunto  Y   =   {(x,y,z ) ∈ R

3;   a ≤

 x ≤

  b, c < y < d}  e convexo

em R3.

(d) Seja  X ⊂   E  convexo. Se  r,   s,   t  sao numeros reais ≥   0   tais que

r + s + t =  1  entao u, v, w ∈ X⇒ ru + sv + tw ∈ X.

(e) Generalizando o resultado acima, a expressao   t1 v1  + · · ·  + tk  vk ,

onde  t1, . . . , tk  sao ≥ 0 e t1 + · · · + tk  =  1 chama-se uma combinac ˜ ao

convexa  dos vetores  v1, . . . , vk . Se o conjunto  X ⊂ E  e convexo, prove

que toda combinacao convexa de vetores   v1, . . . , vk  ∈   X   ainda per-

tence a X.

1.19.  Prove que o disco D  =  {(x, y) ∈  R2; x2 + y2 ≤  1}  e um conjunto

convexo.

Page 19: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 19/358

8   Espacos Vetoriais Secao 1

1.20.   Um subconjunto   C   do espaco vetorial   E   chama-se um   cone

quando, para todo v ∈ C  e todo t > 0, tem-se tv ∈ C. Prove:

(a) O conjunto dos vetores v ∈ Rn que tem exatamente k coordenadaspositivas  (0 ≤ k  ≤ n)  e um cone.

(b) O conjunto das funcoes f :  X→ R que assumem valores negativos

em todos os pontos de um subconjunto fixado  Y  ⊂  X  e um cone em

F (X;R).

(c) Um cone  C ⊂   E  e um conjunto convexo se, e somente se,  u, v ∈C

⇒ u + v ∈ C.

(d) A intersecao e a reuniao de uma famılia qualquer de cones sao

ainda cones.

1.21.  Dado um subconjunto  X  no espaco vetorial  E, seja C(X)  o con-

 junto das combinacoes convexas  t1 v1  + · · · + tk  vk    (ti ≥   0,   Σti   =   1)

dos elementos de   X. Prove que   C(X)   e um conjunto convexo, que

X ⊂ C(X) e que se C′  e qualquer subconjunto convexo de E contendo

X   entao   C′  ⊃   C(X). (Por este motivo, diz-se que   C(X)   e o menor

subconjunto convexo de E  que contem X.  C(X) chama-se a envolt´ oria

convexa  do conjunto X.)

Page 20: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 20/358

2

Subespacos

Um subespaco vetorial do espaco vetorial  E   ´  e um subconjunto  F ⊂  E

que, relativamente as operac˜ oes de   E , ´  e ainda um espaco vetorial.

Os subespacos vetoriais constituem uma rica fonte de exemplos de

 espacos vetoriais, como se ver´ a nas sec˜ oes seguintes.

Seja  E  um espaco vetorial. Um  subespaco vetorial   (ou simples-

mente um subespaco) de E  e um subconjunto F ⊂ E  com as seguintes

propriedades:

1.   0 ∈ F;

2. Se u, v ∈ F  entao u + v ∈ F;

3. Se v ∈ F  entao, para todo α  ∈ R,   αv ∈ F.

Segue-se que se   u   e   v   pertencem ao subespaco   F   e   α ,   β   sao

numeros reais quaisquer entao αu + βv ∈ F. Mais geralmente, dados v1, . . . , vm  ∈ F  e  α 1, . . . , α  m  ∈ R tem-se v  = α 1 v1 + · · · + α m  vm  ∈ F.

O conjunto   {0}, com o  unico elemento 0, e o espaco inteiro   E

sao exemplos triviais de subespacos de  E. Todo subespaco  e, em si

mesmo, um espaco vetorial.

Exemplo 2.1.  Seja v ∈ E  um vetor nao-nulo. O conjunto F  =  {αv; α ∈R} de todos os multiplos de v  e um subespaco vetorial de E, chamado

a reta que passa pela origem e cont´  em v.

Exemplo 2.2.   Seja  E  = F (R;R)  o espaco vetorial das funcoes reais

de uma variavel real  f :  R → R. Para cada  k  ∈  N, o conjunto  Ck (R)

Page 21: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 21/358

10   Subespacos Secao 2

das funcoes k  vezes continuamente derivaveis e um subespaco veto-

rial de E. Tambem sao subespacos de E  o conjunto Co(R) das funcoes

contınuas, o conjunto C∞

(R

) das funcoes infinitamente derivaveis, oconjunto P   = P (R)  dos polinomios  p(x) =  ao  + a1x + · · · + anxn e o

conjunto P n  dos polinomios de grau ≤  n. Para  n, k  ∈ N   quaisquer,

tem-se:

Co(R) ⊃ Ck (R) ⊃ Ck +1(R) ⊃ C∞(R) ⊃ P ⊃ P n.

Observe que o conjunto dos polinomios de grau n nao e um subespaco

vetorial de   E   pois a soma de dois polinomios de grau   n   pode ter

grau < n.Exemplo 2.3.   Sejam   a1, . . . , an   numeros reais. O conjunto   H   de

todos os vetores v  = (x1, . . . , xn) ∈ Rn tais que

a1x1 + · · · + anxn  = 0

e um subespaco vetorial de   Rn. No caso desinteressante em que

a1   = · · ·  =  an  =  0, o subespaco  H  e todo o  Rn. Se, ao contrario, pelo

menos um dos ai  e

 = 0, H chama-se um hiperplano de Rn que passa

pela origem.

Exemplo 2.4.   Sejam   E   um espaco vetorial e   L   um conjunto de

ındices. Se, para cada  λ ∈  L,  Fλ  e um subespaco vetorial de  E  entao

a intersecao

F =λ∈L

e ainda um subespaco vetorial de E. Segue-se entao do Exemplo 2.3

que o conjunto dos vetores  v   = (x1, . . . , xn) ∈  Rn

cujas coordenadassatisfazem as m  condicoes abaixo

a11x1 + a12x2 + · · · + a1nxn  = 0

a21x1 + a22x2 + · · · + a2nxn  = 0

...

am1x1 + am2x2 + · · · + amnxn  = 0

e um subespaco vetorial de Rn, o qual e a intersecao F  =  F1 ∩ . . . ∩ Fm 

dos hiperplanos  Fi  definidos, segundo o Exemplo 2.3, por cada uma

das equacoes acima.

Page 22: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 22/358

Secao 2 Subespacos   11

Seja   X   um subconjunto do espaco vetorial   E. O   subespaco ve-

torial de   E   gerado por   X   e, por definicao, o conjunto de todas as

combinacoes linearesα 1 v1 + α 2 v2 + · · · + α m  vm 

de vetores v1, . . . , vm  ∈ X.

E f acil ver que o conjunto de todas as combinacoes lineares que

se podem formar com vetores retirados do conjunto  X  e, de fato, um

subespaco vetorial, que indicaremos pelo sımbolo S(X).

O subespaco S(X), gerado pelo subconjunto  X ⊂ E, contem o con-

 junto X  e, alem disso, e o menor subespaco de E  que contem X. Nou-

tras palavras, se   F   e um subespaco vetorial de   E   e   X  ⊂   F   entao

S(X) ⊂   F. Evidentemente, se   X   ja  e um subespaco vetorial, entao

S(X) =  X. Quando o subespaco  S(X)  coincide com  E, diz-se que  X  e

um conjunto de geradores de  E.

Explicitamente: um conjunto  X  e um conjunto de geradores do

espaco vetorial  E  quando todo vetor   w ∈   E  pode exprimir-se como

combinacao linear

 w =  α 1 v1 +

· · ·+ α m  vm 

de vetores v1, . . . , vm  pertencentes a X.

Exemplo 2.5.  Se v ∈ E  e um vetor nao-nulo, o subespaco gerado por

 v  e a reta que passa pela origem e contem v.

Exemplo 2.6.   Sejam  u   = (a, b)  e  v   = (c, d)  vetores de  R2 tais que

nenhum deles e multiplo do outro. Entao u  = 0, v = 0 e, pelo Exem-

plo 1.5,   ad  − bc =   0. Afirmamos que   X   =   { u, v}  e um conjunto de

geradores de  R2, ou seja, que qualquer vetor  w   = (r, s) ∈   R2 pode

exprimir-se como uma combinacao linear w  = xu  + yv. De fato estaigualdade vetorial em R

2 equivale  as duas igualdades numericas

ax + cy =  r

bx + dy =  s.

Como ad  − bc = 0, o sistema de equacoes acima possui uma solucao

(x, y), logo existem x, y ∈  R  tais que  xu  + yv  =  w. Esta mesma con-

clusao pode tambem ser obtida geometricamente, conforme mostra a

Figura 2.1. A partir da ponta de w, tracam-se paralelas  as retas quecontem u  e  v, determinando assim os multiplos xu , yv, que somados

dao w.

Page 23: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 23/358

12   Subespacos Secao 2

 v  =

  w

 +

 xu

  x  u

yv   y  v

u0

Figura 2.1.

Exemplo 2.7.  Os chamados vetores canonicos

e1  = (1 , 0 , 0 , . . . , 0),

e2  = (0 , 1 , 0 , . . . , 0),

...

en  = (0 , 0 , . . . , 0 , 1)

constituem um conjunto de geradores do espaco   Rn. Com efeito,

dado  v   = (α 1, . . . , α  n) ∈   Rn, tem-se  v   =   α 1e1  + · · ·  + α nen. Analo-

gamente, os monomios  1, x, . . . , xn, . . .  (em numero infinito) formam

um conjunto de geradores do espaco P   dos polinomios reais. Por

sua vez, os   n  +  1   primeiros deles, a saber,   1, x, . . . , xn constituem

um conjunto de geradores de P n, espaco vetorial dos polinomios degrau ≤ n.

Resulta do Exemplo 2.6 que os  unicos subespacos vetoriais de R2

sao  {0}, as retas que passam pela origem e o proprio  R2. Com efeito,

seja   F ⊂   R2 um subespaco vetorial. Se   F   contem apenas o vetor

nulo, entao  F   =   {0}. Se  F  contem algum vetor  u  =   0  entao ha duas

possibilidades: ou todos os demais vetores de  F  sao multiplos de u , e

neste caso  F  e a reta que passa pela origem e contem  u , ou entao  F

contem, alem de u , um outro vetor v  que nao e multiplo de u . Nestecaso,  F  contem todas as combinacoes lineares  xu  +  yv, logo  F   =  R

2,

pelo Exemplo 2.6.

Page 24: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 24/358

Secao 2 Subespacos   13

Exemplo 2.8.  O sistema linear de  m  equacoes a n  incognitas

a11x1 + a12x2 +· · ·

+ a1nxn  = b1

a21x1 + a22x2 + · · · + a2nxn  = b2

...

am1x1 + am2x2 + · · · + amnxn  = bm 

possui uma solucao   (x1, . . . , xn)   se, e somente se, o vetor   b   = (b1,

. . . , bm )  e combinacao linear dos vetores-coluna

 v1  = (a11, a21, . . . , am1),...

 vn  = (a1n, a2n, . . . , amn)

da matriz a  = [aij ]. Com efeito, estas equacoes significam que

b =  x1 v1 + x2 v2 +

· · ·+ xn vn.

Em particular, se os vetores-coluna v1, . . . , vn gerarem Rm , o sistema

possui solucao, seja qual for o segundo membro b.

Sejam F1  e F2  subespacos vetoriais de  E. O subespaco vetorial de

E gerado pela reuniao F1 ∪ F2  e, como se ve facilmente, o conjunto de

todas as somas  v1  + v2, onde  v1 ∈   F1   e  v2 ∈   F2. Ele  e representado

pelo sımbolo F1 + F2.

Mais geralmente, dados os subconjuntos  X, Y 

 ⊂ E, indica-se com

X +  Y  o conjunto cujos elementos sao as somas  u  +  v, onde  u  ∈  X  e v ∈  Y . Quando  X  =   { u }  reduz-se a um  unico elemento  u , escreve-se

 u  +  Y  em vez de   { u } +  Y . Diz-se entao que  u  + Y  resulta de  Y   pela

translacao de u .

Quando os subespacos  F1, F2 ⊂   E   tem em comum apenas o ele-

mento {0}, escreve-se F1 ⊕ F2 em vez de F1 + F2  e diz-se que F  = F1 ⊕ F2

e a soma direta de  F1  e F2.

Teorema 2.1.  Sejam F , F1 , F2  subespacos vetoriais de E , com F1

 ⊂ F  e

F2 ⊂ F. As seguintes afirmac˜ oes s ˜ ao equivalentes:

(1)   F = F1 ⊕ F2;

Page 25: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 25/358

14   Subespacos Secao 2

(2)   Todo elemento   w ∈   F   se escreve, de modo ´ unico, como soma

 w =  v1 +  v2 , onde v1 ∈ F1  e v2 ∈ F2.

Demonstrac ˜ ao:   Provemos que (1) ⇒ (2). Para isto, suponhamos

que  F1 ∩ F2   =   {0}  e que se tenha  u 1  + u 2   =  v1  + v2, com  u 1, v1 ∈  F1  e

 u 2, v2 ∈ F2. Entao u 1 − v1  = v2 − u 2. Como u 1 − v1 ∈ F1  e v2 − u 2 ∈ F2,

segue-se que   u 1  − v1   e   v2  − u 2  pertencem ambos a   F1   e a   F2. Mas

F1 ∩ F2   =  {0}. Logo u 1 − v1   =  v2 − u 2   =  0, ou seja,  u 1   =  v1  e  u 2   =  v2.

Para provar que (2)

⇒(1), seja  v ∈ F1 ∩ F2. Entao  0 + v  =  v + 0  com

0, v ∈   F1   e  v, 0 ∈   F2. Pela hipotse (2), isto implica  0   =   v, portanto

F1 ∩ F2  =  {0}.Exemplo 2.9.   Em  R

 4, sejam   F1  o subespaco gerado pelos vetores

e1   = (1,0,0,0),   e3   = (0,0,1,0)   e   F2  o subespaco gerado pelos veto-

res   e2   = (0,1,0,0),   e 4   = (0,0,0,1). Entao   F1   e o conjunto dos ve-

tores da forma   (α 1, 0 , α  3, 0)  enquanto os vetores de  F2   tem a forma

(0, α 2, 0 , α   4).  E claro que R 4 = F1 ⊕ F2.

 A nocao de subespaco vetorial abrange as retas, planos e seus

analogos multidimensionais apenas nos casos em que esses conjun-

tos contem a origem. Para incluir retas, planos, etc. que nao passampela origem, tem-se a nocao de variedade afim, que discutiremos

agora.

Seja  E um espaco vetorial. Se x, y ∈ E e x =  y, a  reta que une os

pontos x, y  e, por definicao o conjunto

r =  {(1 − t)x + ty; t ∈ R}.

Pondo v  =  y − x, podemos ver que r  =  {x + tv; t

 ∈R}.

Um subconjunto V  ⊂  E  chama-se uma  variedade afim  quando areta que une dois pontos quaisquer de  V   esta contida em  V . Assim,

V  ⊂   E  e uma variedade afim se, e somente se, cumpre a seguinte

condicao:

x, y ∈ V, t ∈ R⇒ (1 − t)x + ty ∈ V.

Exemplo 2.10.  Um exemplo obvio de variedade afim e um subespa-

co vetorial. Ao contrario dos subespacos vetoriais, que nunca sao

vazios pois devem conter o zero, a definicao acima  e formulada detal modo que o conjunto vazio a cumpre, logo  ∅   e uma variedade

afim.

Page 26: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 26/358

Secao 2 Subespacos   15

Se  V 1, . . . , V  m  ⊂   E  sao variedades afins entao a intersecao  V   =

V 1 ∩ . . . ∩ V m  e ainda uma variedade afim. Todo ponto p ∈  E  e uma

variedade afim.Exemplo 2.11.  Sejam a1, . . . , an, b numeros reais. O conjunto H  dos

pontos x  = (x1, . . . , xn) ∈ Rn tais que

a1x1 + · · · + anxn  = b

e uma variedade afim (que nao contem a origem quando  b =  0). Se

os numeros  ai   nao sao todos nulos,  H  chama-se um hiperplano. Se

a1   =

 · · ·  =   an   =   0, tem-se  H   =  ∅   quando  b

 =   0  e  H   =  R

n quando

b   =   0. Mais geralmente, o conjunto das solucoes de um sistemalinear de   m   equacoes com   n   incognitas (vide Exemplo 2.8)  e uma

variedade afim (eventualmente vazia), intersecao das m  variedades

afins definidas pelas equacoes do sistema.

O teorema a seguir mostra que toda variedade afim nao-vazia  V 

pode ser obtida transladando-se um subespaco vetorial F. Diz-se que

F  e o subespaco vetorial  paralelo a  V .

Teorema 2.2.  Seja V  uma variedade afim n˜ ao-vazia no espaco veto-

rial  E. Existe um ´ unico subespaco vetorial  F ⊂  E  tal que, para todox ∈ V  tem-se

V  = x + F = {x + v; v ∈ F}.

0

F

F x

 x

+

Demonstrac ˜ ao:   Dado  x ∈  V , seja  F  o conjunto de todos os vetores

 v  = y − x, onde y ∈ V . Mostremos que F  e um subespaco vetorial.  E

claro que  0

 ∈ F. Alem disso, se  α 

 ∈ R  e  v

 ∈ F  entao  v  =  y −  x, com

 y ∈ V , logo

αv =  α ( y − x) = [(1 − α )x + αy ] − x =  z − x,

Page 27: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 27/358

16   Subespacos Secao 2

com z  = (1 − α )x + αy ∈ V . Portanto αv ∈ F. Finalmente, se v  =  y − x

e v′  = y′ − x pertencem a F  entao

z  =  12

 y + 12

 y′ ∈ V,

portanto  z − x ∈ F. Segue-se daı que a soma

 v + v′  = y + y′ − 2x =  2(z − x)

pertence a F.

Em seguida, mostremos que V   = x + F. Com efeito, y ∈ V 

⇒ y =

x + ( y − x) com  y − x ∈ F, logo y ∈ x + F. Assim, V  ⊂ x + F. Por outrolado, um elemento qualquer de  x +  F  tem a forma  x + ( y −  x), com

 y ∈ V , logo e igual a y  e daı x + F ⊂ V .

Finalmente, se F e F′  sao subespacos vetoriais de  E, tais que  x +

F = x + F′  para algum x ∈ E, provemos que se tem  F  =  F′. Com efeito,

 v ∈  F ⇒ x +  v ∈  x +  F ⇒ x +  v ∈  x +  F′ ⇒ x +  v  =  x +  v′( v′ ∈  F′) ⇒ v  = v′

⇒ v ∈ F′. Portanto F ⊂ F′. Da mesma forma, ve-se que F′ ⊂  F,

o que conclui a demonstracao.

Exemplo 2.12.  Vimos no exemplo 2.8 que o conjunto  V  das solucoesde um sistema linear de   m   equacoes com   n   incognitas  e uma va-

riedade afim. Supondo  V  =   ∅, tomemos  x0 ∈   V   e chamemos de  F

o subespaco vetorial de  Rn formado pelas solucoes do sistema ho-

mog eneo correspondente (descrito no Exemplo 2.4; veja tambem a

pagina 27). Tem-se  V   =  x0 + F. Diz-se entao que “todas as solucoes

do sistema se obtem somando uma solucao particular com a solucao

geral do sistema homog eneo associado”.

Exercıcios

2.1.   Seja  R(∞) o subconjunto de  R∞ formado pelas sequencias  v   =

(x1, x2, . . . , xn, . . .)   que tem apenas um numero finito de termos   xn

diferentes de zero. Mostre que  R(∞) e um subespaco vetorial de  R∞

e que as sequencias que tem um  unico termo nao-nulo constituem

um conjunto de geradores para R(∞).

2.2.   Use o   ındice deste livro para localizar a definicao de matriztriangular. Mostre que o conjunto F1  das matrizes triangulares in-

feriores e o conjunto   F2   das matrizes triangulares superiores sao

Page 28: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 28/358

Secao 2 Subespacos   17

subespacos vetoriais de   M(n × n), que   M(n × n) =   F1  + F2   e que

nao se tem M(n × n) = F1 ⊕ F2.

2.3.   Seja   E   =   F (R;R). Para   X   ⊂   R   qualquer, ponhamosN(X) = {ϕ ∈ E ;   ϕ(x) = 0  para todo x ∈ X}. Prove:

(a) Para todo X ⊂ R, N(X)  e um subespaco vetorial de E.

(b)   X ⊂ Y ⇒ N(Y ) ⊂ N(X)

(c)   N(X ∪ Y ) = N(X) ∩ N(Y )

(d)   N(X) = {0}

⇔X = R

(e)   N(X

∩Y ) = N(X) + N(Y )

(f)   N(X) ⊕ N(Y ) = E ⇔ Y  = R − X.

2.4.  No espaco vetorial  E  = F (R;R) sejam:

F1   =   conjunto das funcoes   f :  R →   R   que se anulam em todos os

pontos do intervalo [0, 1 ];

F2   =   conjunto das funcoes   g :  R →   R   que se anulam em todos os

pontos do intervalo [2, 3 ].

Mostre que F1  e F2  sao subespacos vetoriais de  E, que E  =  F1 +  F2

e que nao se tem E  =  F1 ⊕ F2.2.5.   Considere os subespacos   F1, F2  ⊂   R

3 assim definidos:   F1   e o

conjunto de todos os vetores v  = (x,x,x) que tem as tres coordenadas

iguais e  F2   e o conjunto de todos os vetores  w   = (x,y,0)  que tem a

ultima coordenada igual a zero. Mostre que R3 = F1 ⊕ F2.

2.6.   Dados  u   = (1, 2)  e  v   = (−1, 2), sejam  F1   e  F2   respectivamente

as retas que passam pela origem em  R2 e contem  u  e v. Mostre que

R2 = F1

⊕F2.

2.7.  Sejam F1  = S( u 1, v1) e F2  = S( u 2, v2) os subespacos de R3 gerados

pelos vetores   u 1   = (0,1, −2),   v1   = (1,1,1),   u 2   = (−1,0,3)   e   v2   =

(2, −1, 0). Ache numeros a1, b1, c1  e a2, b2, c2  tais que se tenha:

F1  = {(x,y,z ) ∈ R3; a1x + b1 y + c1z  =  0}

F2  = {(x,y,z ) ∈ R3; a2x + b2 y + c2z  =  0}.

2.8.   No exercıcio anterior, mostre que  u 2   /∈   F1  e que  F1  + F2   =   R3.Exiba um vetor nao nulo w ∈ F1 ∩ F2  e conclua que nao se tem R

3 =

F1 ⊕ F2 .

Page 29: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 29/358

18   Subespacos Secao 2

2.9.   Prove que  S(X)  e a intersecao de todos os subespacos vetoriais

que contem o conjunto X ⊂ E.

2.10.  Exiba tres vetores u, v, w ∈ R3 com as seguintes propriedades:nenhum deles e multiplo do outro, nenhuma das coordenadas  e igual

a zero e R3 nao e gerado por eles.

2.11.   Seja  F  o subespaco de  R3 gerado pelos vetores  u   = (1,1,1)  e

 v   = (1, −1, −1). Ache numeros  a,  b,  c   com a seguinte propriedade:

um vetor w  = (x,y,z ) pertence a F  se, e somente se,  ax + by + cz  =  0.

2.12. Exprima o vetor (1, −3,10) como combinacao linear dos vetores

 u  = (1,0,0), v  = (1,1,0) e  w  = (2, −3, 5).

2.13.   Mostre que a matriz   d   =

 4   − 4

−6 16

  pode ser escrita como

combinacao linear das matrizes

a =

1 2

3 4

 ,   b =

−1 2

3   − 4

  e   c =

 1   −2

−3 4

  .

2.14.  Assinale V(erdadeiro) ou F(also):

( ) O vetor  w   = (1, −1, 2)   pertence ao subespaco gerado por  u   =

(1,2,3) e  v  = (3,2,1).

( ) Qualquer vetor em  R3 pode ser expresso como combinacao li-

near dos vetores u  = (−5,3,2) e  v  = (3, −1, 3).

( ) Se X ⊂ Y  entao S(X) ⊂ S(Y ).

( ) Se S(X) ⊂ S(Y ) entao X ⊂ Y .

( ) Se uma variedade afim  V  ⊂   E  contem o vetor zero entao  V   e

um subespaco vetorial de E.

2.15.  Quais dos seguintes subconjuntos sao subespacos vetoriais?

(a) O conjunto X ⊂  R3 formado pelos vetores  v  = (x,y,z )  tais que

z  =  3x  e  x  =  2y.

(b) O conjunto  Y  ⊂  R3 formado pelos vetores  v  = (x,y,z )  tais que

xy =  0.

Page 30: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 30/358

Secao 2 Subespacos   19

(c) O conjunto   Z   das matrizes   2 × 3   nas quais alguma coluna  e

formada por elementos iguais.

(d) O conjunto F ⊂ F (R;R)  formado pelas funcoes  f :  R →   R   tais

que f(x + 1) = f(x) para todo x ∈ R.

(e) O conjunto L ⊂ Rn dos vetores v  = (x , 2 x , . . . , n x), onde x ∈ R  e

arbitrario.

(f) O conjunto dos vetores v ∈ R5 que tem duas ou mais coordena-

das nulas.

(g) O conjunto dos vetores de R3 que tem pelo menos uma coorde-

nada ≥ 0.

2.16. Exprima, em termos das operacoes num espaco vetorial E, uma

condicao para que  u, v, w ∈  E  sejam colineares (isto  e, pertencam a

uma mesma reta, que pode conter ou nao o vetor zero).

2.17.   Obtenha numeros  a,  b,  c,  d  tais que a variedade afim (plano)

de  R3 definida pela equacao  ax + by  + cz   =   d  contenha os pontose1  = (1,0,0), e2  = (0,1,0) e  e3  = (0,0,1).

2.18.   Prove que, na definicao de subespaco vetorial, a condicao

“0 ∈ F” pode ser substituıda por “F = ∅”.

2.19.  Quais dos seguintes conjuntos sao subespacos vetoriais?

(a) O conjunto dos vetores de   Rn cujas coordenadas formam uma

progressao aritmetica.

(b) Os vetores de  Rn cujas coordenadas formam uma progressao ge-ometrica.

(c) Os vetores de Rn cujas coordenadas formam uma progressao ari-

tmetica de razao fixada.

(d) Os vetores de  Rn cujas coordenadas formam uma progressao ge-

ometrica de razao fixada.

(e) Os vetores de Rn cujas primeiras k  coordenadas sao iguais.

(f) Os vetores de Rn que tem k  coordenadas iguais.

(g) As sequencias (xn) ∈ R∞

tais que xn+2 − 3xn  = xn+1  para todo n.(h) Os vetores (x, y) ∈ R2 tais que x2 + 3x =  y2 + 3y.

(i) As funcoes f ∈ C∞(R) tais que f′′ − 2f′ + f =  0.

Page 31: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 31/358

20   Subespacos Secao 2

2.20.  Sejam v1, v2, v3  os vetores-linha e  w1, w2, w3  os vetores-coluna

da matriz   1 2 3

 4 5 6

7 8 9

.

 Verifique as relacoes  v3   =   2v2  − v1,  w3   =   2w2  − w1. Exprima  w1   e

 w2  como combinacoes lineares de  v1  e  v2, e vice-versa. Conclua que

os vetores-linha e os vetores-coluna da matriz dada geram o mesmo

subespaco de R3.

2.21. De exemplo de uma matriz 3

×3 cujos vetores-linha geram um

subespaco de R3 diferente daquele gerado pelos vetores-coluna.

2.22.   Prove que a reuniao de dois subespacos vetoriais de  E  e um

subespaco vetorial se, e somente se, um deles estiver contido no ou-

tro.

2.23.  A partir da definicao, prove que, dados os numeros a1,...,an, c,

o conjunto  V  dos vetores  x  = (x1, . . . , xn) ∈  Rn tais que  a1x1  + · · · +

anxn   =   c  e um subespaco vetorial de  Rn se, e somente se,   c   =   0.

Prove a afirmacao feita no texto de que V  e uma variedade afim.2.24.   Seja  F  um subespaco vetorial de  E. Assinale V(erdadeiro) ou

F(also):

( ) S e   u /∈ F   e   v /∈ F   entao   u + v /∈ F;

( ) S e   u /∈ F   e   α  = 0   entao   αu /∈ F.

2.25.  Diz-se que um subconjunto  X de um espaco vetorial  E  e sim´  e-

trico quando v ∈ X ⇒ − v ∈ X. Prove que um cone convexo simetrico

e nao-vazio  e um subespaco vetorial de E.

2.26.   De exemplo de um cone convexo que nao seja simetrico e um

cone simetrico que nao seja convexo.

2.27.   Uma matriz quadrada  a   = [aij ]  chama-se  sim´  etrica   (respect.

anti-sim´  etrica) quando  aij   =   a ji   (respect.   aij   = −a ji) para todo   i  e

todo  j. Prove que o conjunto  S  das matrizes simetricas e o conjunto

A  das matrizes anti-simetricas   n × n   sao subespacos vetoriais de

M(n×

n) e que se tem  M(n×

n) = S⊕

A.

2.28.   Seja  E   = F (R;R). Fixada  g :  R → R, mostre que o conjunto  F

de todas as funcoes f :  R→ R tais que f(g(x)) = f(x)  e um subespaco

Page 32: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 32/358

Secao 2 Subespacos   21

vetorial de  E. Para qual funcao  g  tem-se  F   =  conjunto das funcoes

periodicas de perıodo  a ? E se fosse   g(f(x)) =   f(x) ? Ou   f(g(x)) =

g(x) ?2.29.   Prove que o subespaco vetorial gerado por um cone convexo

C ⊂ E  e o conjunto das diferencas u  − v, onde u, v ∈ C. Conclua que

o conjunto das funcoes f :  X→ R que so assumem valores positivos  e

um conjunto de geradores de F (X;R).

2.30.   Diz-se que uma funcao   f :  X →   R   e   limitada   quando existe

k > 0 (dependendo de f) tal que |f(x)| ≤ k  para todo x ∈ X. Prove que

o conjunto das funcoes limitadas e um subespaco vetorial de

F (X;R),

o qual e gerado pelas funcoes limitadas positivas.

2.31.  Um subespaco vetorial de  R3 gerado por dois vetores nao-coli-

neares u , v chama-se um plano. Use um argumento geometrico para

provar que se o vetor w ∈ R3 nao pertence ao plano gerado por  u  e  v

entao u , v  e  w  geram R3.

2.32.   Mostre que o vetor  b   = (1,2,2)  nao  e combinacao linear dos

vetores v1  = (1,1,2) e  v2  = (1,2,1). A partir daı, formule um sistema

linear de 3 equacoes com 2 incognitas, que nao possui solucao e quetem o vetor b  como segundo membro.

2.33.  Sejam F1, . . . , Fk  ⊂ E  subespacos vetoriais. Prove:

(1) O subespaco gerado pela uniao F1∪. . .∪Fk  e o conjunto F1 + · · ·+Fk 

das somas x1 + · · · + xk , onde x1 ∈ F1, . . . , xk  ∈ Fk .

(2) As seguintes afirmacoes sao equivalentes:

(a) Cada   x ∈   F1  + · · ·  + Fk  se escreve de modo  unico como somax = x1 + · · · + xk .

(b) Para cada j  =  1, . . . , k   tem-se F j∩(F1 +· · ·+F j−1 +F j+1 +· · ·+Fk ) =

 {0}.

Quando uma das condicoes (a) ou (b) vale, escreve-se F1 ⊕· · ·⊕ Fk  em

vez de  F1  + · · · + Fk  e diz-se que este subespaco  e a   soma direta  de

F1, . . . , Fk .

2.34.   Seja  E  =  F1 ⊕ F2   =  G1 ⊕ G2. Se  F1 ⊂  G1  e  F2 ⊂  G2, prove que

F1  = G1  e F2  = G2.

Page 33: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 33/358

22   Subespacos Secao 2

2.35.   Sejam  E,  F  espacos vetoriais. Uma funcao  f :  E

→F  chama-se

 par   (respect.   ´ ımpar) quando  f(− v) =   f( v)   (respect.   f(− v) = −f( v))

para todo v ∈ E. Prove:(a) O conjunto A  das funcoes pares e o conjunto B  das funcoes ımpa-

res sao subespacos vetoriais de F (E; F)   (vide Exerc. 1.15) e vale

F (E; F) = A ⊕ B.

(b) Alem dos conjuntos A, dos polinomios pares, e B, dos polinomios

ımpares, considere tambem o conjunto  A′   dos polinomios da forma

 p(x) = Σaix2i que so contem expoentes pares e o conjunto  B′  dos po-

linomios da forma q(x)=Σaix2i+1, que so contem expoentes ımpares.

Prove que  A′  e  B′  sao subespacos vetoriais do espaco P  de todos ospolinomios, que A′ ⊂ A, B′ ⊂ B  e P   = A′ ⊕ B′. Conclua que A  = A′  eB = B′.

2.36.   Para todo  n ∈  N  seja  Qn  o conjunto dos polinomios (de graus

arbitrarios) que sao divisıveis por xn. Prove que Qn  e um subespaco

vetorial de P . Ache um subespaco F ⊂ P  tal que P  = F ⊕ Qn.

2.37.   Dado  X ⊂   E, seja   Y   o conjunto obtido de  X  substituindo um

dos seus elementos  v  por  v  +  αu , onde  u  ∈

  X  e  α  ∈  R. Prove que

X  e  Y  geram o mesmo subespaco vetorial de  E. Conclua daı que os

conjuntos { v1, . . . , vk } ⊂ E  e { v1, v2 − v1, . . . , vk − v1} ⊂ E  geram o mesmo

subespaco vetorial de E.

2.38.  Prove que a reuniao de tres subespacos vetoriais so pode ser

um subespaco vetorial quando um deles contem os outros dois.

2.39.   Sejam F1, F2  subespacos vetoriais de E. Se existir algum  a ∈ E

tal que a + F1 ⊂ F2, prove que F1 ⊂ F2.

2.40.   Seja   V  ⊂   E   uma variedade afim. Dados   v1, . . . , vm  ∈   V   eα 1, . . . , α  m  ∈ R com α 1 + · · ·+α m  = 1, prove que α 1 v1 +· · ·+α m  vm  ∈ V .

2.41.   Para todo subespaco vetorial   F ⊂   Rn, prove que existe um

subespaco G ⊂ Rn tal que Rn = F ⊕ G.

2.42.   Verdadeiro ou falso? Para quaisquer subconjuntos  X, Y  ⊂   E

tem-se

S(X

∪Y ) = S(X) + S(Y ),

S(X ∩ Y ) = S(X) ∩ S(Y ).

Page 34: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 34/358

Secao 2 Subespacos   23

(A  ultima das igualdades acima sugere uma pergunta: qual seria

o subespaco vetorial gerado pelo conjunto vazio? A convencao mais

conveniente  e S(∅) =  {0}.)2.43.   Dado o subconjunto nao-vazio   X   do espaco vetorial   E, a   va-

riedade afim gerada por  X  e, por definicao, o conjunto  V (X)  de to-

das as combinacoes lineares  α 1 v1  + · · · + α n vn, com  v1, . . . , vn ∈  X  e

α 1 + · · · + α n  = 1. Prove que

(a)   V (X)  e uma variedade afim;

(b) Fixado qualquer   v0

 ∈  X, tem-se   V (X) =   v0   +  F, onde   F   e o

subespaco vetorial de E  gerado pelos vetores v − v0, onde v ∈ X.

Page 35: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 35/358

3

Bases

Os espacos vetoriais de dimens˜ ao finita, objetos centrais do nosso

 estudo, possuem uma estrutura alg´  ebrica extremamente simples, evi-

denciada pelas id´  eias de base e dimens ˜ ao, que apresentaremos agora.

Uma vez fixada uma base num espaco vetorial de dimens˜ ao n , seus

 elementos s ˜ ao meramente combinac˜ oes lineares dos n vetores b´ asicos,

com coeficientes univocamente determinados. Nesta sec ˜ ao, esses fatos

 ser ˜ ao estabelecidos e analisados em detalhe.

Seja  E  um espaco vetorial. Diz-se que um conjunto  X ⊂ E  e line-

armente independente (abreviadamente, L.I.) quando nenhum vetor

 v ∈   X  e combinacao linear de outros elementos de   X. Para evitar

ambig uidade, no caso em que  X  =   { v}  consta de um  unico elemento

 v, diz-se que  X  e L.I., por definicao, quando  v =  0. Quando  X  e L.I.,

diz-se tambem que os elementos de  X  sao  vetores linearmente inde-

 pendentes.Quando o conjunto  X  e L.I. seus elementos sao todos =  0, pois o

vetor nulo e combinacao linear de quaisquer outros:  0 =  0 · v1 + · · · +

0 · vm . (Se nao ha “outros”, X  = { v}, v = 0.)

Um criterio extremamente  util para verificar a independencia

linear de um conjunto  e dado pelo teorema abaixo.

Teorema 3.1.   Seja   X   um conjunto   L.I.   no espaco vetorial   E. Se

α 1 v1 + · · · + α m  vm =0 com v1, . . . , vm  ∈  X  ent˜ ao α 1  = · · ·  =  α m =0. Re-

ciprocamente, se a ´ unica combinac ˜ ao linear nula de vetores de  X   ´  eaquela cujos coeficientes s˜ ao todos iguais a zero, ent˜ ao  X   ´  e um con-

 junto L.I..

Page 36: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 36/358

Secao 3 Bases   25

Demonstrac ˜ ao: Suponhamos, por absurdo, que se tenha α 1 v1+· · ·+α m  vm  =  0  com  v1, . . . , vm  ∈  X mas nem todos os  α i  sejam nulos. Por

simplicidade, seja  α 1 =   0. Entao teremos  v1   = −(α 2/α 1) v2  − · · ·  −(α m /α 1) vm   =  0, o que exprime  v1  como combinacao linear de outros

elementos de X. Reciprocamente, se X  nao fosse L.I., algum dos seus

vetores seria combinacao linear dos demais:

 v =  α 1 v1 + · · · + α m  vm ,   logo   1 · v − α 1 v1 − · · · − α m  vm  = 0,

uma combinacao linear nula de vetores em X, na qual pelo menos o

primeiro coeficiente nao e zero.

Corolario. Se v  =  α 1 v1 + · · · + α m  vm  = β1 v1 + · · · + βm  vm  e os vetores

 v1, . . . , vm  s ˜ ao L.I. ent˜ ao α 1  = β1, . . . , α  m  = βm .

Com efeito, tem-se neste caso  (α 1 − β1) v1 + · · · + (α m  − βm ) vm  = 0

logo α 1 − β1  = · · · =  α m  − βm  = 0.

Evidentemente, todo subconjunto de um conjunto L.I.   e

ainda L.I. .

Exemplo 3.1.   Os vetores canonicos   e1   = (1 , 0 , . . . , 0), . . . , en   =(0 , . . . , 0 , 1)   em   R

n sao L.I. . Com efeito,   α 1e1   + · · ·  +  α nen   =   0

significa   (α 1, . . . , α  n) =   0, logo  α 1   = · · ·   =   α n   =   0. Analogamente,

os monomios 1, x, . . . , xn em P n  sao L.I. pois  α o + α 1x + · · · + α nxn =

 p(x)  e o vetor nulo em P n   somente quando  p(x)  e a funcao identi-

camente nula, isto  e,   p(x) =   0  para todo  x ∈   R. Isto obriga a ser

α o   = · · ·   =   α n   =   0   pois um polinomio nao nulo de grau  k   tem no

maximo  k  raızes reais. Esta observacao nos permite ainda concluir

que X  = {1 , x , . . . , xn

, . . .} ⊂ P  e um conjunto infinito L.I. .Na pratica, o criterio seguinte e  as vezes  util.

Teorema 3.2.   Sejam   v1, . . . , vm   vetores nao-nulos do espaco veto-

rial  E. Se nenhum deles  e combinacao linear dos anteriores entao o

conjunto  X  =  { v1, . . . , vm }  e L.I. .

Demonstrac ˜ ao: Suponhamos, por absurdo, que uma combinacao li-

near dos vetores dados, com coeficientes nao todos nulos, fosse igual

a zero. Se α r vr   fosse a  ultima parcela nao-nula dessa combinacao,terıamos entao

α 1 v1 + · · · + α r vr  = 0,

Page 37: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 37/358

26   Bases Secao 3

com   α r  =   0. Daı viria   vr   = − α 1α r

 v1  − · · ·  −  α r−1

α r vr−1, logo   vr   seria

combinacao linear dos elementos anteriores a ele na lista  v1, . . . , vm .

(Observe que r > 1 pois v1 = 0.)Observac ˜ ao: Evidentemente, vale um resultado analogo, com “sub-

sequentes” em vez de “anteriores” no enunciado.

Um conjunto   X ⊂   E   diz-se   linearmente dependente   (abreviada-

mente, L.D.) quando nao e L.I. .

Isto significa que algum dos vetores  v ∈   X  e combinacao linear

de outros elementos de  X, ou entao que X  =  {0}. A fim de que  X  seja

L.D. e necessario e suficiente que exista uma combinacao linear nulaα 1 v1 + · · ·+ α m  vm  = 0  de vetores v1, . . . , vm  ∈ X com algum coeficiente

α i = 0. Se X ⊂ Y  e X  e L.D. entao Y  tambem e L.D. . Se 0 ∈ X  entao o

conjunto  X  e L.D. .

Exemplo 3.2.   Os vetores  u  = (1,2,3),  v  = ( 4, 5, 6),  w  = (7,8,9)  em

R3 sao L.D. pois w  =  2v − u .

Exemplo 3.3.  Quando os vetores  v1, . . . , vm  sao L.D., isto nao signi-

fica que qualquer um deles seja combinacao linear dos demais. Por

exemplo se u  = (1, 2), v  = (3, 4) e  w  = ( 4, 8) entao { u, v, w} ⊂ R2 e um

conjunto L.D. pois w  =  4u + 0 · v porem v  nao e combinacao linear de

 u  e  w.

Uma  base  de um espaco vetorial  E  e um conjunto B ⊂  E  linear-

mente independente que gera  E. Isto significa que todo vetor  v ∈  E

se exprime, de modo  unico, como combinacao linear v  = α 1 v1 + · · · +

α m  vm  de elementos  v1, . . . , vm  da base B . Se B   =   { v1, . . . , vm }  e uma

base de   E   e   v   =   α 1 v1  +

 · · · +  α m  vm , entao os numeros   α 1, . . . , α  m 

chamam-se as coordenadas do vetor v  na base B .Exemplo 3.4.  Os vetores e1  = (1 , 0 , . . . , 0), . . . , en  = (0 , . . . , 0 , 1) cons-

tituem uma base  {e1, . . . , en} de  Rn, chamada a  base canonica. Ana-

logamente, os monomios 1, x, . . . , xn formam uma base para o espaco

vetorial P n dos polinomios de grau ≤ n. O conjunto

 {1 , x , . . . , xn, . . .}

dos monomios de graus arbitrarios constitui uma base (infinita) parao espaco vetorial P   de todos os polinomios reais. Convem obser-

var, entretanto, que o conjunto   X   =   {e1, . . . , en, . . .}  ⊂   R∞, onde

Page 38: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 38/358

Secao 3 Bases   27

en   = (0 , . . . , 0 , 1 , 0 , . . .)  e a sequencia infinita cujo   n-esimo termo  e

1   e os demais sao iguais a zero,   e um conjunto infinito L.I. mas

nao  e uma base de  R∞

pois nao gera este espaco. Com efeito, osubespaco vetorial de  R∞ gerado por  X  e o conjunto  R(∞) formado

pelas sequencias  v   = (α 1, . . . , α  n, . . .)  nas quais apenas um numero

finito de coordenadas α n  e = 0.

Demonstraremos a seguir que se um espaco vetorial   E   admite

uma base com  n elementos entao todas as bases de  E  tem o mesmo

numero n  de elementos. Este numero e chamado a dimens˜ ao de  E.

O ponto de partida  e o lema abaixo. Nele, um sistema linear e

chamado  homogˆ eneo quando o segundo membro de cada equacao  e

igual a zero. Todo sistema homog eneo admite pelo menos a soluc ˜ aotrivial   (0 , 0 , . . . , 0). Isto  e coerente com o Exemplo 2.4, pois as so-

lucoes   v   = (x1, . . . , xn)   de um sistema homog eneo constituem um

subespaco vetorial de Rn e todo subespaco contem o vetor nulo.

Lema 3.1.  Todo sistema linear homogˆ eneo cujo n ´ umero de inc´ ogni-

tas ´  e maior do que o n ´ umero de equac˜ oes admite uma soluc ˜ ao n˜ ao-

trivial.

Demonstrac ˜ ao:  Consideremos o sistemaa11x1 + a12x2 + · · · + a1nxn  = 0

a21x1 + a22x2 + · · · + a2nxn  = 0

... (*)

am1x1 + am2x2 + · · · + amnxn  = 0,

de m  equacoes com n  incognitas, onde m < n. Usaremos inducao no

numero m  de equacoes. Para m  =  1, temos uma  unica equacao

a11x1 + · · · + a1nxn  = 0,

com  n > 1   incognitas. Um dos coeficientes  a1i   e =   0. Mudando os

nomes das incognitas, se necessario, podemos supor que  a1n =  0. A 

equacao dada equivale a

xn  = −

a11

a1nx1 + · · · +

 a1n−1

a1nxn−1

.

 Atribuindo arbitrariamente valores nao-nulos  as   n  −  1   incognitasx1, . . . , xn−1  e calculando  xn  por meio desta  ultima expressao, obte-

mos uma solucao nao-trivial  (x1, . . . , xn) para a equacao dada. Para

Page 39: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 39/358

28   Bases Secao 3

completar a inducao, suponhamos o lema verdadeiro para um sis-

tema com   m  −  1   equacoes. Mudando, se necessario, a ordem das

equacoes e os nomes das incognitas, podemos admitir que, no sis-tema (*) dado, tem-se  amn = 0. Entao da m -esima equacao resulta

xn  = −

am1

amnx1 + · · · +

 amn−1

amnxn−1

.

Substituindo, em cada uma das m − 1 primeiras equacoes, a incogni-

ta xn por este valor, obtemos um sistema homog eneo de m − 1 equa-

coes nas n − 1 incognitas x1, . . . , xn−1. Pela hipotese de inducao, este

sistema admite uma solucao nao-trivial  (α 1, . . . , α  n−1), pois  n −  1 >

m − 1. Pondo

α n  = −

am1

amnα 1 + · · · +

 amn−1

amnα n−1

,

obtemos uma solucao nao-trivial   (α 1, . . . , α  n−1, α n)   do sistema pro-

posto (*).

Teorema 3.3.   Se os vetores   v1, . . . , vm   geram o espaco vetorial   E

entao qualquer conjunto com mais de m  vetores em E  e L.D.

Demonstrac ˜ ao:   Dados os vetores   w1, . . . , wn   em   E, com   n > m ,

para cada j  = 1, . . . , n  temos w j  = α 1j v1 + · · · + α mj vm  pois os vetores

 v1, . . . , vm   geram  E. Para mostrar que os vetores w j  sao L.D., deve-

mos achar coeficientes  x1, . . . , xn, nao todos iguais a zero, tais que

x1 w1  + · · · + xn wn   =   0. Substituindo os  w j  por suas expressoes em

termos dos vi, esta igualdade significa que

n

 j=1

x jα 1j

 v1 + n

 j=1

x jα 2j

 v2 + · · · + n

 j=1

x jα mj

 vm  = 0.

Certamente esta  ultima condicao sera satisfeita desde que todos os

somatorios dentro dos parenteses sejam nulos, ou seja, que

(x1, . . . , xn) seja uma solucao nao-trivial do sistema homog eneo

α 11x1 + α 12x2 + · · · + α 1nxn  = 0

α 21x1 + α 22x2 + · · · + α 2nxn  = 0

...

α m1x1 + α m2x2 + · · · + α mnxn  = 0.

Page 40: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 40/358

Secao 3 Bases   29

Uma tal solucao existe, pelo Lema 3.1, pois n > m . Logo w1, . . . , wn

sao L.D. e o teorema esta demonstrado.

Corolario 1.  Se os vetores  v1, . . . , vm  geram o espaco vetorial E  e os

vetores  u 1, . . . , u  n s ˜ ao L.I. ent˜ ao n ≤ m .

Este corolario e uma mera reformulacao do Teorema 3.3.

Corolario 2.  Se o espaco vetorial E  admite uma base B = { u 1, . . . , u  n}

com n  elementos, qualquer outra base de  E  possui tamb´  em n  elemen-

tos.

Com efeito, seja B ′  =  { v1, . . . , vm } outra base de E. Como B ′ gera Ee B  e L.I., temos n ≤ m , pelo Corolario 1. Como B  gera E  e B ′  e L.I.,

do mesmo corolario segue-se m  ≤ n. Logo m  =  n.

Diz-se que o espaco vetorial  E   tem  dimens˜ ao finita  quando ad-

mite uma base B   =   { v1, . . . , vn}  com um numero finito  n  de elemen-

tos. Este numero, que e o mesmo para todas as bases de E, chama-se

a  dimens˜ ao   do espaco vetorial  E:   n   =   dim  E. Por extensao, diz-se

que o espaco vetorial  E  =  {0} tem dimensao zero.

Corolario 3.   Se a dimens˜ ao de  E   ´  e  n , um conjunto com  n  vetores

 gera E  se, e somente se, ´  e L.I..

Com efeito, se  X   =   { v1, . . . , vn}  gera  E  e nao  e L.I. entao um dos

seus elementos  e combinacao dos  n − 1  restantes. Estes n − 1  veto-

res formariam ainda um conjunto de geradores de  E, em contradicao

com o Teorema 3.3, pois   E   contem (uma base com)   n   vetores line-

armente independentes. Reciprocamente, suponhamos que   X   sejaL.I. . Se   X   nao gerasse   E, existiria um vetor   v ∈   E   que nao seria

combinacao linear dos elementos de   X. Entao, pelo Teorema 3.2,

 { v1, . . . , vn, v} seria L.I., em contradicao com o Teorema 3.3, pois uma

base de E, com n  elementos, gera o espaco.

Como a base canonica {e1, . . . , en} ⊂ Rn tem n elementos, Rn e um

espaco vetorial de dimensao finita n. Segue-se entao do Corolario 3

que, para mostrarmos que   n   vetores   v1, . . . , vn ∈   Rn formam umabase basta provarmos que eles sao L.I. ou, alternativamente, que

geram Rn.

Page 41: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 41/358

Page 42: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 42/358

Page 43: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 43/358

32   Bases Secao 3

Em particular, para todo  i  =  1, . . . , n − 1, o vetor

 vi  = (0 , . . . , 1 , . . . , 0 , −ai/an),

cuja i-esima coordenada e 1, a  ultima e −ai/an e as demais sao zero,

pertence a  H. Alem disso, os vetores  v1, . . . , vn−1   sao L.I., como se

ve facilmente. Logo o subespaco  H tem dimensao  n − 1  ou  n. Como

H =   Rn (por exemplo, o vetor  v   = (0 , . . . , 0 , an)  nao pertence a  H),

segue-se que dim  H   =   n −  1   e os vetores  v1, . . . , vn−1   formam uma

base do hiperplano H.

Diz-se que a variedade afim  V  ⊂  E  tem  dimens˜ ao r  quando  V   =

x + F, onde o subespaco vetorial F ⊂ E  tem dimensao r.

Exercıcios

3.1.   Dados os vetores   u    = (a1, a2, a3),   v   = (b1, b2, b3)   e

 w   = (c1, c2, c3), escreva   u ′   = (a1, a2),   v′   = (b1, b2)   e   w′   = (c1, c2).

Supondo  u ′ e v′  L.I., existem α, β

 ∈R tais que w′  = αu ′ + βv′ . Prove

que  { u, v, w}  e L.D. se, e somente se, w  = αu  + βv  (com os  mesmos α e β). Use esse criterio para determinar se os vetores u , v  e  w  abaixo

sao L.I. ou L.D.:

(a)   u  = (1,2,3), v = (1,3,2), w = (−1,2,3)

(b)   u  = (1,2,3), v = (1,3,2), w = (1,4,1).

3.2.  Mostre que as matrizes a, b  e  c  abaixo sao L.I.:

a =

1 1

0 0

 ,   b =

1 0

0 1

  ,   c =

1 1

1 1

 .

3.3.  Prove que os polinomios seguintes sao linearmente independen-

tes:

 p(x) = x3 − 5x2 + 1, q(x) = 2x 4 + 5x − 6, r(x) = x2 − 5x + 2.

3.4.  Seja X um conjunto de polinomios. Se dois polinomios quaisquer

pertencentes a X  tem graus diferentes, prove que  X  e L.I. .

Page 44: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 44/358

Secao 3 Bases   33

3.5.   No espaco P 3  dos polinomios de grau ≤   3, verifique se os po-

linomios abaixo sao L.I. ou L.D.:

 p(x) = x3 − 3x2 + 5x + 1,

q(x) = x3 − x2 + 6x + 2,

r(x) = x3 − 7x2 + 4x.

3.6.  Se uma funcao em  C∞(R)  e combinacao linear de outras entao

suas derivadas sucessivas sao combinacoes lineares (com os mes-

mos coeficientes) das derivadas dessas outras. Use este fato para

mostrar que {ex, e2x, x3, x2, x}  e um conjunto L.I. .

3.7.  Seja E  =  F1 ⊕ F2 . Se B 1  e uma base de F1  e B 2  e uma base de F2 ,

prove que B 1 ∪ B 2  e uma base de  E.

3.8.   Exiba uma base para cada um dos subespacos de  R 4 listados a

seguir:

F =  {(x1, x2, x3, x 4); x1  = x2  = x3  = x 4}

G =  {(x1, x2, x3, x 4); x1  = x2  e x3  = x 4}

H =  {(x1, x2, x3, x 4); x1  = x2  = x3}

K = {(x1, x2, x3, x 4); x1 + x2 + x3 + x 4  = 0}.

3.9. Seja E um espaco vetorial de dimensao finita. Dado um subespa-

co   F ⊂   E, prove que se pode obter um subespaco   G ⊂   E   tal que

E =  F ⊕ G.3.10. Seja F o subespaco vetorial (plano) de R3 formado pelos vetores

 v = (x,y,z ) tais que x − 2y + 4z  = 0. Obtenha uma base { u 1, u 2, u 3} ⊂R

3 tal que u 1  e u 2  pertencam a F.

3.11. Mostre que os polinomios 1, x −1 e x2 −3x+1 formam uma base

de P 2 . Exprima o polinomio 2x2 − 5x + 6 como combinacao linear dos

elementos dessa base.

3.12.   Mostre que os vetores   u   = (1, 1)  e   v   = (−1, 1)   formam umabase de  R2. Exprima cada um dos vetores e1   = (1, 0)  e  e2   = (0, 1)

como combinacao linear dos elementos dessa base.

Page 45: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 45/358

34   Bases Secao 3

3.13.  Mostre que os vetores  u   = (1,1,1),  v   = (1,2,1)  e  w   = (2,1,2)

sao L.D. .

3.14. Assinale V(erdadeiro) ou F(also) quanto a validez da afirmacao:“A uniao de dois subconjuntos L.I. do espaco vetorial E  e ainda

um conjunto L.I.”

( ) Sempre.

( ) Nunca.

( ) Quando um deles e disjunto do outro.

( ) Quando um deles e parte do outro.

( ) Quando um deles e disjunto do subespaco gerado pelo outro.

( ) Quando o numero de elementos de um deles mais o numero de

elementos do outro e igual  a dimensao de E.

3.15.   Seja  S  o conjunto das matrizes simetricas  n × n. Para cada

par (i, j) de numeros naturais de 1 ate n, com i ≤ j, seja sij  a matriz

n

 × n   cujos elementos nas posicoes   ij   e   ji   sao iguais a 1 e os de-

mais sao zero. Prove que estas matrizes constituem uma base parao subespaco vetorial  S ⊂ M(n × n). De modo analogo, obtenha uma

base do subespaco  A   das matrizes anti-simetricas  n × n. Conclua

que dim  S =  n(n + 1)/2 e dim  A =  n(n − 1)/2.

3.16.  As matrizes  t  = [tij ] ∈  M(n × n)  tais que  tij   =  0  quando  i < j

sao chamadas   triangulares inferiores. Prove que elas constituem

um subespaco vetorial  L ⊂   M(n × n), obtenha uma base para  L  e

determine a sua dimensao.

3.17. Obtenha uma base e consequentemente determine a dimensao

de cada um dos subespacos de M(n × n) abaixo descritos:

(a) matrizes cuja soma dos elementos da diagonal (traco)  e zero.

(b) matrizes que tem a primeira e a  ultima linha iguais.

(c) matrizes cuja segunda linha e igual  a terceira coluna.

(d) matrizes nas quais a soma dos elementos da primeira linha e

igual  a soma dos elementos da segunda coluna.

Page 46: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 46/358

Secao 3 Bases   35

3.18.   Sejam  u, v ∈ E  vetores linearmente independentes. Dado  α  =0, prove que o conjunto de dois elementos  { v, v + αu }  e uma base do

subespaco gerado pelos vetores v, v + u, v + 2 u , . . . , v + n u , . . . .3.19.   Sejam  v1   = (1 , 2 , . . . , n),   v2   = (n + 1, n + 2, . . . , 2n), . . . , vn   =

(n2 − n + 1, n2 − n + 2 , . . . , n2). Prove que estes vetores geram em Rn o

mesmo subespaco F que os vetores w1  = (1, n+1,2n+1 , . . . , n2−n+1),

 w2  = (2, n+2 , . . . , n2 −n+2), . . . , wn  = (n , 2 n , . . . , n2) e que dim  F =  2.

(Veja Exercıcio 2.3.)

3.20.  Ache uma solucao nao-trivial para o sistema homog eneo:

x1   +   2x2   +   3x3   +   4x 4   =   02x1   +   x2   +   x3   −   x 4   =   0

3x1   −   2x2   +   x3   −   2x 4   =   0

e, a partir daı, obtenha uma combinacao linear nula dos vetores v1  =

(1,2,3),   v2   = (2,1, −2),   v3   = (3,1,1),   v 4   = ( 4, −1, −2), na qual os

coeficientes nao sao todos iguais a zero.

3.21.  Seja { v1, . . . , vn} uma base do espaco vetorial  E. Se os numeros

a1, . . . , an   nao sao todos iguais a zero, prove que o conjunto   F   dosvetores   v   =   x1 v1  + · · ·  + xn vn   tais que  a1x1  + · · ·  + anxn   =   0  e um

subespaco vetorial de E, com dim  F =  n − 1.

3.22.   Prove que   {1, ex, e2x, e3x, e 4x}   e um conjunto L.I. no espaco

C∞(R). (Sugestao: dada uma combinacao linear nula, derive-a, de-

pois divida por ex e prossiga.)

3.23.  Sejam X1, . . . , Xn, . . . subconjuntos L.I. do espaco vetorial E.

(a) Se X1 ⊂ X2 ⊂ . . . ⊂ Xn ⊂ Xn+1 ⊂ . . ., prove que X  =

 Xn  e L.I. .(b) Se cada  Xn  tem  n elementos, prove que existe um conjunto line-

armente independente  X∗   =   {x1, . . . , xn, . . .}  com  xn ∈   Xn   para cada

n ∈ N.

(c) Supondo E  =  R(∞) e admitindo as hipoteses dos ıtens anteriores,

e verdade que X  =

 Xn  seja uma base de E ?

3.24.  Se os vetores  v1, . . . , vm  sao L.I., prove que o mesmo se da com

os vetores v1

, v2

 −  v1

, . . . , vm 

 −  v1

. Vale a recıproca?

3.25. Dado o conjunto finito X  =  {a1, . . . , an}, obtenha uma base para

o espaco vetorial F (X;R).

Page 47: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 47/358

36   Bases Secao 3

3.26.   Seja  X  um conjunto infinito. Para cada a ∈  X, seja  fa :  X

→R

a funcao tal que fa(a) = 1  e  fa(x) = 0  se  x = a. Prove que o conjunto

Y  ⊂ F (X;R

) formado por estas funcoes  e linearmente independente,logo F (X;R)  nao tem dimensao finita. Prove ainda que Y   nao gera

F (X;R).

3.27.  Sejam F1, F2 ⊂ E  subespacos de dimensao finita. Obtenha uma

base do subespaco F1 + F2 que contenha uma base de F1, uma base de

F2  e uma base de  F1 ∩ F2.

3.28.   Exiba uma base para cada um dos espacos vetoriais abaixo e

daı calcule sua dimensao:

(a) polinomios pares de grau ≤ n.

(b) polinomios ımpares de grau ≤ n.

(c) polinomios de grau ≤ n  que se anulam para x  = 2  e  x  =  3.

(d) vetores de Rn (n ≥ 6) nos quais a segunda, a quarta e a sexta

coordenadas sao iguais.

3.29.  Pode-se ter uma base de P n  formada por  n +  1  polinomios de

grau n ?

3.30.  Mostre que os vetores  u   = (1,1,1),  v   = (1,2,3)  e  w   = (1,4,9)

formam uma base de  R3. Exprima cada um dos vetores  e1, e2, e3  da

base canonica de R3 como combinacao linear de u , v  e  w.

3.31.   Ache uma sequencia infinita   F1, F2, . . . , Fn, . . .   de subespacos

vetoriais de P  tais que: (a) dim  Fn  =∞; (b) Fm ∩ Fn  = {0} se  m  = n.

3.32.   Para  1 ≤   i ≤   m  e  1 ≤   j ≤   n, sejam  si, t j :  M(m × n) →  R  as

funcoes definidas por  si(a) =  soma dos elementos da  i-esima linha

de a  e  t j(a) = soma dos elementos da j-esima coluna de a. Prove que

s1, . . . , sm , t1, . . . , tn  sao L.D. no espaco vetorial  E  = F (M(m × n);R)

mas o conjunto {s1, . . . , sm −1, t1, . . . , tn}  e L.I. .

3.33.   Com as notacoes do exercıcio anterior, sejam τ, σ :  M(n × n)→R  as funcoes definidas, para cada  a   = [aij ] ∈   M(n × n)  por  τ (a) =a11  + · · ·  +  ann   (soma dos termos da diagonal principal) e   σ(a) =

a1n + a2,n−1 + · · · + an1   (soma dos termos da outra diagonal). Prove

Page 48: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 48/358

Secao 3 Bases   37

que, para n ≥ 3, {s1, . . . , sn−1, t1, . . . , tn, τ , σ} sao funcoes linearmente

independentes.

3.34.   Num espaco vetorial  E, diz-se que o vetor v  e uma combinac ˜ aoafim   dos vetores   v1, . . . , vr   quando se tem   v   =   α 1 v1   + · · ·  +  α r vr,

com   α 1  + · · ·  +  α r   =   1. Diz-se que os vetores   v1, . . . , vr   sao   afim-

independentes   quando nenhum deles  e uma combinacao afim dos

demais. Prove que as seguintes afirmacoes sao equivalentes:

(1) Os vetores v1, . . . , vr  sao afim-independentes.

(2) Se α 1 v1 + · · · + α r vr  = 0  e  α 1 + · · · + α r  = 0  entao α 1  = · · · =  α r  = 0.

(3) Se  α 1 v1  + · · · + α r vr   =  β1 v1  + · · · + βr vr  com

ri=1

α i   =

ri=1

βi  entao

α 1  =  β1, . . . , α  r   =  βr. (Em particular, duas combinacoes afins dos  vi

so podem ser iguais quando tiverem os mesmos coeficientes.)

(4) Os vetores v2 −  v1, v3 −  v1, . . . , vr −  v1  sao L.I. .

(5) A variedade afim gerada por v1, . . . , vr  tem dimensao r − 1.

Page 49: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 49/358

4

Transformacoes Lineares

 A   ´  Algebra Linear pode ser apresentada sob trˆ es pontos de vista equi-

valentes: transformac˜ oes lineares, matrizes ou formas quadr´ aticas.

 A ˆ enfase (ou at´  e mesmo a exclusividade) que se d ´ a a uma dessas

abordagens ´  e muitas vezes uma quest˜ ao de h´ abito, gosto pessoal ou

convicc ˜ ao. Neste livro, os trˆ es aspectos ser ˜ ao devidamente tratados

 por´  em a primazia ser ´ a concedida as transformac˜ oes lineares, pelostrˆ es motivos apontados, principalmente o ´ ultimo.

Sejam E, F espacos vetoriais. Uma transformac ˜ ao linear A :  E→ F

e uma correspondencia que associa a cada vetor   v ∈   E   um vetor

A( v) =  A · v  = Av ∈ F de modo que valham, para quaisquer u, v ∈ E

e α  ∈ R, as relacoes:

A( u + v) = Au + Av,

A(α · v) = α · Av.

O vetor A · v chama-se a imagem (ou o transformado) de  v pela trans-

formacao A.

Se  A :  E →   F  e uma transformacao linear entao  A · 0   =   0. Com

efeito,  A · 0  =  A(0 +  0) =  A · 0 +  A · 0. Alem disso, dados  u, v ∈  E  e

α, β ∈ R, tem-se A(αu + βv) = A(αu ) + A(βv) = α · Au + β · Av. Mais

geralmente, dados v1, . . . , vm  em E  e  α 1, . . . , α  m  ∈ R, vale

A(α 1 v1 + · · · + α m  vm ) = α 1 · Av1 + · · · + α m  · Avm .

Daı resultam A(− v) = −Av e  A( u − v) = Au − Av.

Page 50: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 50/358

Secao 4 Transformacoes Lineares   39

 A  soma de duas transformacoes lineares A, B :  E

→F e o produto

de uma transformacao linear  A :  E

 →  F  por um numero  α  ∈  R  sao

as transformacoes lineares   A  + B :  E →   F   e   αA :  E →   F, definidasrespectivamente por (A + B) v = Av + Bv e  (αA) v =  α · Av, para todo

 v ∈   E. O sımbolo   0   indica a transformacao linear nula   0 :  E →   F,

definida por  0 · v   =   0   e, definindo  −A :  E →   F  por   (−A) · v   = −Av,

ve-se que (−A) + A =  A + (−A) = 0.

Seja L(E; F) o conjunto das transformacoes lineares de E em  F. As

definicoes acima tornam L(E; F)  um espaco vetorial. Quando  E  =  F,

usaremos a notacao L(E)  em vez de L(E; E). As transformacoes li-

neares  A :  E →   E  do espaco vetorial  E  em si mesmo sao chamadas

operadores lineares  em  E. Por sua vez, as transformacoes lineares

ϕ :  E →  R, com valores numericos, sao chamadas   funcionais linea-

res. Escreve-se E∗  em vez de L(E;R)  e o conjunto  E∗  dos funcionais

lineares  ϕ :  E→ R chama-se o espaco vetorial dual de  E.

Um operador linear especial  e o operador  identidade   I :  E →   E,

definido por I · v =  v  para todo v ∈ E. Quando for necessario especifi-

car, escreveremos IE  em vez de  I.

Uma transformacao linear   A :   E →   F   e um tipo particular de

funcao que tem o espaco vetorial  E  como domınio e o espaco  F  comocontra-domınio. Em geral, para se definir uma funcao   f :  X →   Y 

e necessario especificar o valor   f(x)   para cada elemento   x   no seu

domınio  X. O que torna as transformacoes lineares tao manejaveis

e que, para se conhecer  A ∈ L(E; F), basta que se saibam os valores

A · v que  A assume nos vetores v ∈ B , onde B  e uma base de  E. Isto

e particularmente  util quando  E   tem dimensao finita. Neste caso,

um numero finito de valores  A ·  v1, . . . , A ·  vn   (onde   { v1, . . . , vn} ⊂   E

e uma base) atribuıdos arbitrariamente, definem inteiramente umatransformacao linear A :  E→ F. Mais precisamente, vale o

Teorema 4.1.   Sejam  E,  F  espacos vetoriais e B  uma base de  E. A 

cada vetor u  ∈ B , facamos corresponder (de maneira arbitraria) um

vetor u ′ ∈ F. Entao existe uma  unica transformacao linear A :  E→ F

tal que A · u  =  u ′  para cada u ∈ B .Demonstrac  ao:  Todo vetor v ∈ E  se exprime, de modo  unico, como

uma combinacao linear  v   =  α 1 u 1  +

· · ·+ α m  u m  de elementos  u 1, . . .

. . . , u  m  da base B . Definimos A :  E→ F pondo

A · v = α 1 u ′1 + · · · + α m  u ′m .

Page 51: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 51/358

40   Transformacoes Lineares Secao 4

Dados v, w ∈ E temos

 v =  α 1 u 1 +

· · ·+ α m  u m 

e

 w =  β1 u 1 + · · · + βm  u m .

(Mesmo que a base B  seja infinita, podemos exprimir   v   e   w   como

combinacoes lineares dos mesmos elementos de B , completando com

coeficientes zero os multiplos dos u i que aparecem apenas numa das

duas expressoes.) Entao

 v + w =

m i=1

(α i + βi) u i

logo

A( v + w) = Σ(α i + βi) u ′i  = Σα i u ′i + Σβi u ′i  = A · v + A · w.

De maneira analoga se ve que  A(αv) =   α  · Av, portanto  A :  E →   F,

assim definida,  e uma transformacao linear, tal que A · u  = u ′, para

todo  u 

 ∈ B . Quanto  a unicidade, seja B :  E → F outra transformacao

linear tal que   B · u   =   u ′   para todo   u  ∈ B . Entao, para cada   v   =Σα i u i ∈ E  tem-se

B · v =  B(Σα i u i) = Σα i · Bu i  = Σα i · u ′i  = A · vportanto  B  = A. Isto completa a demonstracao.

Em virtude do Teorema 4.1, se quisermos definir uma transfor-

macao linear   A :  Rn

→  R

m  basta escolher, para cada   j   =   1 , . . . , n,

um vetor   v j   = (a1j, a2j, . . . , amj)

 ∈  Rm  e dizer que   v j   =   A

 · e j   e a

imagem do j-esimo vetor da base canonica, e j  = (0 , . . . , 1 , . . . , 0), pela

transformacao linear   A. A partir daı, fica determinada a imagem

A · v  de qualquer vetor   v   = (x1, . . . , xn) ∈   Rn. Com efeito, tem-se

 v =  x1e1 + · · · + xnen, logo

A · v =  A

n

 j=1

x je j

 =

n j=1

x jA · e j  =

n j=1

(a1jx j, a2jx j, . . . , amjx j)

= n

 j=1

a1jx j,n

 j=1

a2jx j, . . . ,n

 j=1

amjx j

,

Page 52: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 52/358

Secao 4 Transformacoes Lineares   41

ou seja,

A(x1, x2, . . . , xn) = ( y1, y2, . . . , ym ),

onde

 y1  = a11x1 + a12x2 + · · · + a1nxn

 y2  = a21x1 + a22x2 + · · · + a2nxn

... (*)

 ym  = am1x1 + am2x2 + · · · + amnxn .

Resumindo: uma transformacao linear  A :  Rn →   Rm  fica intei-

ramente determinada por uma matriz   a   = [aij ] ∈   M(m  × n). Os

vetores-coluna dessa matriz sao as imagens   A · e j   dos vetores da

base canonica de  Rn. A imagem   A · v  de um vetor arbitrario   v   =

(x1, . . . , xn) ∈  Rn e o vetor  w  = ( y1, . . . , ym ) ∈  Rm  cujas coordenadas

sao dadas pelas equacoes (*) acima, nas quais ocorrem os vetores-

linha da matriz a. Diz-se que a  e a matriz da transformac ˜ ao A  rela-

tiva  as bases canonicas de Rn e Rm . Tem-se

A · e j  =

m i=1

aijei   ( j =  1, . . . , n),

onde os e j  estao em Rn e os ei  em R

m .

Em particular, a matriz de um funcional linear  ϕ :  Rn → R  e do

tipo  1 × n, logo pode ser escrita simplesmente como   [a1, a2, . . . , an ],

onde a j  = ϕ(e j). Para todo vetor x  = (x1, . . . , xn) ∈  Rn tem-se ϕ(x) =

a1x1 + · · · + anxn.Na situacao dual, uma transformacao linear  A :  R → R

n e dada

por uma matriz   n ×  1, cuja  unica coluna   e o vetor   v   =   A ·  1   =

(a1, . . . , an). (A base canonica de  R1 =   R   tem um  unico elemento

e1   =   1.) Assim, a transformacao linear   A :  R →   Rn fica inteira-

mente determinada por um  unico vetor  v ∈  Rn. Tem-se A · t  =  t · v

para todo   t ∈   R. Evidentemente, o mesmo se pode dizer de toda

transformacao linear   A :  R

 →  F, seja qual for o espaco vetorial   F:

conhecendo  v  = A·

1 ∈

F tem-se A·

t =  tv  para todo t ∈R.

Exemplo 4.1.   Se dim  E   =   1, todo operador   A :  E →   E   e do tipo

A   =   αI, isto  e, existe uma constante  α  ∈   R   tal que  Av   =   αv  para

Page 53: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 53/358

Page 54: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 54/358

Page 55: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 55/358

44   Transformacoes Lineares Secao 4

Pv

y   ax

 v

=

Figura 4.3 – Projec ˜ ao ortogonal sobre uma reta.

Queremos determinar  x′  em funcao de  x  e  y, o que nos dara as

coordenadas  (x′, ax′) de  Pv  em funcao das coordenadas de v. No caso

particular em que   a   =   0, a reta   y   =   ax  e o eixo das abcissas e a

projecao Pv  e simplesmente igual a (x, 0). As equacoes da projecao P

sobre o eixo horizontal sao portanto x′  = x, y′  = 0. A matriz de P  na

base canonica de R2 e1 0

0 0

. No caso geral, a extremidade do vetor

Pv  e o vertice do  angulo reto num triangulo retangulo cujos demais

vertices sao a origem e a extremidade do vetor  v. Pelo teorema de

Pitagoras, temos

dist( v, 0)2 = dist(Pv,0)2 + dist( v, Pv)2,

ou seja,

x2 + y2 = (x′)2 + a2(x′)2 + (x − x′)2 + ( y − ax′)2.

Suponhamos  x′ =  0. Desenvolvendo, simplificando e dividindo am-

bos os membros por x′, obtemos (1 + a2)x′  = x + ay, donde

x′  = x + ay

1 + a2  ,   ou seja   x′  =

  1

1 + a2 x +

  a

1 + a2 y.

O caso x′  = 0 significa que v = (x, y) esta sobre a perpendicular a reta

 y  =  ax   passando pela origem. Ora, a equacao dessa perpendiculare   x  +  ay   =   0, logo a expressao   x′   = (x  +  ay)/(1  +  a2)   fornece   x′

em funcao de   x  e   y   em todos os casos. Vemos, em particular, que

Page 56: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 56/358

Secao 4 Transformacoes Lineares   45

a projecao   P :  R2

→  R

2 e um operador linear, cuja matriz na base

canonica de R2 e   1

1+a2

a

1+a2

a1+a2

a2

1+a2

.

Exemplo 4.4.  (Reflex ˜ ao em torno de uma reta.) Seja S :  R2 → R2

a reflexao em torno da reta  y  = ax. Para todo v  = (x, y) ∈  R2, a reta

 y  =  ax  e a bissetriz do  angulo entre  v  e  Sv  e  e perpendicular  a reta

que liga  v  a  Sv. Seja P :  R2

→ R

2 a projecao ortogonal sobre a reta

 y =  ax. A Fig. 4.4 mostra que, para todo  v ∈R2, tem-se v + Sv =  2Pv,

ou seja, que I + S = 2P, onde I :  R2 → R2 e o operador identidade. Daı

vem  S   =   2P  − I. Usando o exemplo anterior, concluımos que, para

todo v  = (x, y), tem-se Sv  = (x′, y′), onde

x′  = 1 − a2

1 + a2 x +

  2a

1 + a2 y, y′  =

  2a

1 + a2 x −

 1 − a2

1 + a2 y .

Pv

Sv

2Pv   Sv v v =   +

Figura 4.4 – Reflex ˜ ao em torno de uma reta.

Exemplo 4.5.  Como vimos acima, o  unico tipo de funcional linear

ϕ :  Rn → R  e o da forma ϕ( v)=a1x1 + · · ·+ anxn, para v  = (x1, . . . , xn).

Por outro lado, se   E   =   Co([a, b ])   e o espaco vetorial das funcoes

contınuas f : [a, b ]→ R, podemos definir o funcional linear  ϕ :  E→ R

pondo

ϕ(f) =  b

a

f(x) dx.

Outro exemplo de funcional linear ξ em E consiste em fixar um ponto

c ∈   [a, b ]  e definir, para cada  f ∈  E,   ξ(f) =   f(c). Ainda no contexto

Page 57: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 57/358

46   Transformacoes Lineares Secao 4

do espaco de funcoes  E   =   Co([a, b ]), podemos definir um operador

linear   K :  E

 →  E   do seguinte modo: fixamos uma funcao contınua

k : [a, b ] × [a, b ] →   R, de duas variaveis, e fazemos corresponder acada f ∈ E  a funcao g  =  Kf ∈ E dada por

g(x) =

 ba

k (x, y)f( y) dy.

Finalmente, temos o importante operador de derivacao D :  C∞(R)→C∞(R), definido por  Df  =  f′   =  derivada de  f. Ele tambem pode ser

considerado, de forma mais restrita, como um operador D : P n→

P n,

onde

D

  ni=0

aixi

 =

ni=1

iaixi−1 ,

ou, de forma mais ampla, como uma transformacao linear

D :  Ck (R)→ Ck −1(R), para k > 0.

Exercıcios

4.1.   Prove que se   A, B :  E →   F   sao transformacoes lineares e   α   e

um numero real entao A  + B  e  αA, conforme definidas no texto, sao

transformacoes lineares.

4.2.   Sejam   R,P,S :  R2 →   R2 respectivamente a rotacao de   30◦   em

torno da origem, a projecao ortogonal sobre a reta  y   =   x/3  e a re-

flexao em torno da mesma reta. Dado o vetor v  = (2, 5), determine

os vetores Rv, Pv  e  Sv.

4.3.  Assinale verdadeiro (V) ou falso (F):

E dada uma transformacao linear A :  E→ F.

( ) Se v ∈ E  e tal que Av  =  0  entao v  =  0.

( ) Se Aw  =  Au + Av entao w  =  u + v.

( ) Se v  e combinacao linear de  u 1, . . . , u  m  entao  Av  e combinacao

linear de Au 1, . . . , A u  m .

( ) Se u, v, w ∈ E sao colineares (isto e, pertencentes a uma mesma

reta) entao Au , Av  e  Aw  sao colineares.

Page 58: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 58/358

Secao 4 Transformacoes Lineares   47

4.4.   Seja   A :  R2

→  R

2 a projecao sobre o eixo   x, paralelamente  a

reta  y   =   ax  (a =   0). Isto significa que, para todo  v   = (x, y), tem-

se  Av   = (x′, 0), tal que  v −  Av  pertence  a reta  y   =   ax. Exprima  x′em funcao de  x   e   y  e escreva a matriz de   A   relativamente  a base

canonica de R2.

4.5.  Dados os vetores  u 1   = (2, −1),  u 2   = (1, 1),  u 3   = (−1, − 4),  v1   =

(1, 3), v2  = (2, 3) e v3  = (−5, −6), decida se existe ou nao um operador

linear  A :  R2 → R2 tal que  Au 1   =  v1 ,  Au 2   =  v2  e  Au 3   =  v3 . Mesma

pergunta com v3  = (5, −6) e com v3  = (5, 6).

4.6.  A expressao geral de um operador linear A :  R2 → R2 e A(x, y) =

(ax + by, cx + dy). Determine as constantes a, b, c  e  d  de modo queA transforme os vetores u  = (1, 2) e  v  = (3, 4) nos vetores Au  = (1, 1)

e Av  = (2, 2).

4.7.  A expressao geral de um funcional linear  f :  R3→R  e f(x,y,z ) =

ax  + by  + cz . Dados os vetores   u   = (1,2,3),   v   = (−1,2,3)   e   w   =

(1, −2, 3), determine   a,   b   e   c   de tal modo que se tenha   f( u ) =   1,

f( v) = 0  e  f( w) = 0.

4.8.   Seja  A : R

2 → R2

o operador linear definido por  A(x, y) = (5x + 4y, −3x − 2y). Ache vetores nao-nulos  u  = (x, y) e v  = (s, t)  tais que

Au  = u  e Av  =  2v. Sao unicas as solucoes? Sera possıvel achar w = 0

em R2 com Aw  =  αw, onde α  = 1  e  α = 2 ?

4.9.   De as expressoes dos funcionais lineares   f,g,h :  R3 →   R   que

formam a base dual em (R3)∗ da base { u, v, w} ⊂ R3, onde u  = (1,1,1),

 v = (1, −1, 1) e  w  = (1, 1 − 1). (Vide Exercıcio 4.20.)

4.10.   Tem-se uma transformacao linear  A :  R2

→   R3. Sabe-se que

A(−1, 1) = (1,2,3) e  A(2, 3) = (1,1,1). Pede-se a matriz  a ∈ M(3 × 2)de A  relativamente  as bases canonicas de R2 e R3.

4.11.   Prove que uma transformacao linear   A :  E →   F   transforma

todo conjunto convexo C ⊂ E  num conjunto convexo A(C) ⊂ F.

4.12.   Determine a expressao do operador linear   A :  R2 →   R2, sa-

bendo que, para todo   v   = (x, y), o segmento de reta que liga   v   a

Av  = (x′, y′)  e horizontal e tem seu ponto medio sobre a reta  y  =  x.

Qual e a imagem do eixo vertical pelo operador  A ?

4.13.   Prove que os operadores lineares   E11, E12, E21, E22 :  R2 →   R2,

definidos por   E11(x, y) = (x, 0),   E12(x, y) = (0, x),   E21(x, y) = ( y, 0),

Page 59: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 59/358

48   Transformacoes Lineares Secao 4

E22(x, y) = (0, y), constituem uma base do espaco vetorial L(R2).

Prove ainda que outra base deste espaco pode ser formada com os

operadores   A,   B,   C,   I, onde   A(x, y) = (x  +  3y,y),   B(x, y) = (x, 0),C(x, y) = (x + y, x − y) e  I(x, y) = (x, y).

4.14.   Verifique que as funcoes definidas nos Exercıcios 3.32 e 3.33

sao funcionais lineares.

4.15.  Seja A :  E→ F uma transformacao linear

(a) Se os vetores  Av1, . . . , A vm  ∈  F  sao L.I., prove que  v1, . . . , vm  ∈  E

tambem sao L.I. .

(b) Se F  = E e os vetores  Av1, . . . , A vm  geram E, prove que v1, . . . , vm 

geram E.

(c) Valem as recıprocas de (a) e (b)? Seria (b) verdadeira com  F = E ?

4.16.  Quais das transformacoes abaixo sao lineares?

(a)   A :  R3 → R3, A(x,y,z ) = (x, 2 y, 2z ).

(b)   A :  R3 → R3, A(x,y,z ) = (3x,a,5z ), onde a ∈ R.

(c)   A :  R 4

→R3, A(x,y,z,w) = (x − w, y − w, x + z ).

(d)   A :  M(n × n)→ Rn

, A([aij ]) = (a11, a22, . . . , ann).(e)   A :  C∞(R)→ C∞(R), Af  = 3f′′ − 2f′ + 1.

(f)   A :  M(2 × 2)→ R, A

a b

c d

 =  ad − bc.

4.17.   Sejam  A :  E →   F  uma transformacao linear e  E′ ⊂   E,   F′ ⊂   F

subespacos vetoriais. Prove que A(E′) =  {Av; v ∈ E′}  e um subespaco

de  F  e  A−1(F′) =   { v ∈   E; Av ∈   F′}  e um subespaco de   E. Se  V  ⊂   E

e  W 

 ⊂  F  sao variedades afins, prove que os conjuntos  A(V )

 ⊂  F   e

A−1(W ) ⊂ E, definidos analogamente, sao tambem variedades afins.

4.18.   No exercıcio anterior, prove que se   E′   tem dimensao finita

entao dim  A(E′)  e finita e dim  A(E′) ≤   dim  E′. De um exemplo de

um operador nao identicamente nulo  A :  R2 →   R2 e um subespaco

E′ ⊂ R2 tal que dim  A(E′) <  dim  E′. Prove tambem que se E  e  F′  tem

dimensao finita e A  e sobrejetiva entao dim  A−1(F′) ≥ dim  F′. De um

exemplo em que A = 0 e dim  A−1(F′) >  dim  F′. De tambem um exem-

plo (com dim  E = ∞), onde dim  F′  e finita mas dim A−1(F′) =∞.

4.19.  Dados os espacos vetoriais  E, F, prove que L(E; F)  e um subes-

paco vetorial de F (E; F). (Vide Exercıcio 1.15.)

Page 60: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 60/358

Secao 4 Transformacoes Lineares   49

4.20.   Seja V   =   { v1, . . . , vn}   uma base do espaco vetorial   E. Para

cada   i   =   1, 2, . . . , n, seja  fi :  E

 →  R   o funcional linear determinado

(conforme o Teorema 4.1) pelas condicoes   fi( vi) =   1,   fi( v j) =   0   se j =   i. Prove que   {f1, . . . , fn}  e uma base de  E∗   = L(E;R)   (chamada

a   base dual   da base V ). Mostre que se tem   fi( v) =   xi   para todo

 v =  x1 v1 + · · · + xn vn ∈ E.

4.21.   Seja f :  R2 → R um funcional linear. Sabendo que  f(1, 1) =  3 e

f(2, 3) = 1, calcule f(1, 0) e  f(0, 1).

4.22.   Seja  A :  R2

→ R

2 o operador linear dado por  A(x, y) = (ax +

by, cx + dy), com ad − bc

 = 0. Prove:

(1) Para todo v = 0  em R2, tem-se A.v = 0.

(2) Toda reta R ⊂   R2 (variedade afim de dimensao 1)  e transfor-

mada por A  numa reta.

(3)   A transforma retas paralelas em retas paralelas.

4.23.   Determine α  de modo que as retas perpendiculares em R

2

, deequacoes   y   =   αx   e   y   = −x/α  sejam transformadas em retas per-

pendiculares pelo operador linear  A :  R2 →   R2, dado por  A(x, y) =

(2x + 3y,x − 2y).

4.24.   Sejam   E,   F   espacos vetoriais de dimensao finita. Dados os

vetores   v1, . . . , vm  ∈   E   e   w1, . . . , wm  ∈   F, a fim de que exista uma

transformacao linear   A :  E

 →  F   com   Av1   =   w1, . . . , A vm   =   wm ,   e

necessario e suficiente que, para toda combinacao linear nula α 1 v1 +

· · · + α m  vm  = 0, se tenha tambem α 1 w1 + · · · + α m  wm  = 0.4.25. Seja v um vetor nao-nulo de um espaco vetorial E, de dimensao

finita. Dado qualquer espaco vetorial F =  {0}, mostre que existe uma

transformacao linear A :  E→ F tal que Av = 0.

4.26.   Seja  E um espaco vetorial de dimensao finita. Dada uma base

F   =  {f1, . . . , fn} ⊂ E∗, mostre que existe uma base  { v1, . . . , vn} ⊂ E da

qual F  e dual. (Veja Exercıcio 4.20.)

4.27.   Seja  Y  um conjunto de geradores do espaco vetorial  E. Se astransformacoes lineares A, B :  E→ F sao tais que Aw = Bw  para todo

 w ∈ Y , prove que Av  =  Bv  para todo v ∈ E.

Page 61: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 61/358

50   Transformacoes Lineares Secao 4

4.28.   Seja   X   =   { v1, . . . , vm }   um conjunto L.I. no espaco vetorial   E,

de dimensao finita. Dados arbitrariamente os vetores  w1, . . . , wm  no

espaco vetorial F, prove que existe uma transformacao linear A :  E→F  tal que  Av1   =  w1, . . . , A vm   =  wm .   A  e  unica se, e somente se,  X  e

uma base de E.

4.29.   Uma transformacao T :  E → F, entre espacos vetoriais, chama-

se afim quando se tem T ((1−t) u +tv) = (1−t)Tu +tTv para quaisquer

 u, v ∈ E  e  t ∈ R. Dada a transformacao afim T  :  E→ F, prove:

(a) Toda variedade afim V  ⊂ E  e transformada por T  numa variedade

afim V ′ ⊂ F.(b) Se  T  · 0   =   0, entao, escrevendo  αv   = (1 −  α )0 +  αv, resulta que

T (αv) = α · Tv para quaisquer α  ∈ R, v ∈ E.

(c) Supondo ainda   T  ·  0   =   0, a relacao   T 

12 ( u + v)

  =   1

2 (Tu  +  Tv),

implica que T ( u + v) = Tu + Tv para quaisquer u, v ∈ E.

(d) Para todo  b ∈   F, a transformacao  S :  E

 →  F, definida por  Sv   =

Tv + b tambem e afim.

Conclua que  T :  E → F  e uma transformacao afim se, e somentese, existem A ∈ L(E; F) e  b ∈ F  tais que Tv  =  Av + b para todo v ∈ E.

4.30.   Seja   H  ⊂   Rn um subespaco vetorial de dimensao   n  −  1.

Tome uma base V ⊂   H, formada pelos vetores   v1, . . . , vn−1, onde

 vi   = (α i, . . . , α  in),   i   =   1, . . . , n  − 1. Use o fato de que o sistema de

equacoes linearesn

 j=1

α ijx j  = 0, com n − 1 equacoes e n incognitas, ad-

mite uma solucao nao-trivial para concluir que existem  n  numeros

a1, . . . , an   tais que   v   = (x1, . . . , xn)  pertence a   H  se, e somente se,a1x1 + · · · + anxn  = 0. (Todo subespaco vetorial de Rn com dimensao

n  −  1   e um hiperplano, isto  e,   e o conjunto das solucoes de uma

equacao linear homog enea.)

Page 62: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 62/358

5

Produto de

Transformacoes Lineares

O produto de transformac˜ oes lineares, que introduziremos nesta

 sec ˜ ao, ´  e um exemplo concreto de estrutura alg´  ebrica que apresenta

variados e interessantes fenomenos, n˜ ao encontrados nas operac˜ oes

 entre n ´ umeros ou entre vetores.Dadas as transformacoes lineares  A :  E →   F,   B :  F →   G, onde o

domınio de B coincide com o contra-domınio de A, define-se o produto

BA :  E→ G pondo, para cada  v ∈ E, (BA) v =  B(Av),

E  A

F  B

G

BA

 V e-se imediatamente que  BA  e uma transformacao linear. Ob-

serve-se tambem que  BA  nada mais  e do que a composta  B ◦ A  das

funcoes B  e A. Segue-se entao dos princıpios gerais que se C :  G→ H

e outra transformacao linear, vale a

 Associatividade:   (CB)A = C(BA).

 A linearidade tampouco  e necessaria para mostrar que, dadas

A :  E

→F e  B, C :  F

→G, tem-se a

Distributividade a esquerda:   (B +  C)A  =  BA +  CA, que decorre

simplesmente da definicao de B + C.Usando a linearidade de  C :  F→ G, ve-se que, dadas A, B :  E → F,

vale a

Page 63: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 63/358

52   Produto de Transformacoes Lineares Secao 5

Distributividade a direita:   C(A + B) = CA + CB.

Com efeito, para todo v ∈ E, tem-se

[C(A + B)] v =  C[(A + B) v ] = C(Av + Bv) = C(Av) + C(Bv)

= (CA) v + (CB) v = (CA + CB) v.

Exemplo 5.1.   Sejam  f, g, h :  R →  R  definidas por  f(x) =   x,  g(x) =

x + 1  e  h (x) =   x2. Entao   [h  ◦ (f  +  g)](x) =   4x2 + 4x  + 1, enquanto

[(h ◦ f) + (h ◦ g)](x) = 2x2 + 2x + 1, logo h ◦ (f + g) = h ◦ f + h ◦ g. Isto

se da porque h  nao e linear.

Outra consequencia da linearidade de B  e aHomogeneidade:   B(αA) = α (BA), valida para  α  ∈  R, A :  E → F e

B :  F→ G quaisquer.

Evidentemente, dada  A :  E → F, tem-se AIE   =  A  =  IFA, de modo

que as aplicacoes identidade   IE :   E →   E,   IF :   F →   F   sao elementos

neutros para a multiplicacao, cada uma delas do lado apropriado.

Diferencas notaveis entre o produto de transformacoes lineares

e o produto de numeros reais sao as ausencias da comutatividade,

da lei do corte e da inversa multiplicativa para uma transformacao= 0, alem da presenca de transformacoes nilpotentes, para as quais

tem-se  An =  0  com  A =  0. Deve-se ainda mencionar a restricao de

que o produto BA so esta definido quando A toma valores no domınio

de  B. Esta restricao desaparece, naturalmente, quando se trata de

operadores lineares no mesmo espaco   E: entao o produto   BA   esta

definido quaisquer que sejam  A, B ∈ L(E).

Exemplo 5.2.  Sejam P, R :  R2

→ R2 respectivamente a projecao orto-

gonal sobre a reta y  = x  e a rotacao de um angulo de 90◦ em torno daorigem. Entao, para todo v  = (x, y) ∈ R

2, tem-se Pv  =   12 (x + y, x + y),

Rv = (− y, x). Segue-se que

RPv =  1

2(−x − y, x + y)

e

PRv =  1

2

(x − y, x − y).

Portanto RPv = PRv para todo  v, exceto para  v  = (0, 0). Observe que

bastaria que RPv = PRv  para um   ´ unico v  a fim de termos RP = PR.

Page 64: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 64/358

Secao 5 Produto de Transformacoes Lineares   53

Exemplo 5.3.  Seja P :  R2

→R

2 a projecao ortogonal sobre uma certa

reta  r. Para todo  v  sobre a reta  r, tem-se  Pv  =  v. Assim, para qual-

quer v ∈ R2

, tem-se PPv  =  Pv, pois Pv esta sobre r. Noutras palavras,vale   PP   =   P, ou seja   PP   =   PI, embora   P =   I. Assim, nao  e per-

mitido cortar o fator  P  a esquerda em ambos os membros da igual-

dade  PP   =   PI. Segue-se que nao existe  Q ∈ L(R2)  tal que  QP   =   I.

Com efeito, se um tal operador Q  existisse, de PP  = P  concluirıamos

QPP  = QP, isto e, IP  = I, donde P  = I.

Exemplo 5.4.  Sejam P, Q :  R2

→R

2 projecoes ortogonais sobre duas

retas do plano, uma das quais  e perpendicular  a outra. Todo vetor

 v ∈  R2

e a diagonal de um retangulo que tem  Pv  e  Qv  como lados.(Veja Fig. 5.1.)

Pv

Qv

 v

Figura 5.1.

Segue-se entao que v =  Pv+Qv para todo v ∈ R2, ou seja, P+Q =  Ie Q  =  I − P. Portanto PQ  = P(I − P) =  P −  P2 = P −  P  =  0. Obtemos

assim dois operadores nao-nulos P, Q com PQ  = 0.  E possıvel mesmo

que um operador nao-nulo   A ∈ L(R2)   cumpra   A2 =   0. Basta por

A(x, y) = (x − y, x − y).

Um operador A  chama-se  nilpotente quando, para algum  n ∈  N,

tem-se An = 0. Um exemplo significativo de operador nilpotente  e a

derivacao  D : P n →

P n. Para todo polinomio  p  de grau ≤   n  tem-se

Dn+1 p =  0, logo Dn+1 = 0.

Exemplo 5.5.   Se  Rα , Rβ :  R2 → R2 sao rotacoes em torno da origem

com  angulos α  e  β  respectivamente, entao Rα  · Rβ  = Rα +β. (Isto pode

Page 65: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 65/358

54   Produto de Transformacoes Lineares Secao 5

ser visto geometricamente na Fig. 5.2 ou usando as f ormulas de

cos(α + β) e sen(α + β)). Se S :  R2

→R

2 e a reflexao em torno de uma

reta entao  S · S  =  I. Isto se segue da expressao  S  =  2P − I, levandoem conta que P · P  = P, mas tambem pode ser visto geometricamente

(com mais facilidade).

R vR R v R v=

 v

a   b   a   b+   b

ba

Figura 5.2 – Rotac ˜ oes do plano.

Exercıcios

5.1.   Verifique explicitamente que o produto  BA  de transformacoes

lineares  e ainda uma transformacao linear.

5.2.   Considere os operadores lineares  R, S, P :  R2 →   R2, onde  R  e a

rotacao de  30◦  em torno da origem,  S  e a reflexao em torno da reta

 y =  2x  e  P  e a projecao ortogonal sobre a mesma reta.

(i) Mostre que se tem PS  =  SP  = P.

(ii) Verifique a igualdade RSR  =  S.

(iii) Mostre que R  nao comuta com S  nem com P.

(iv) Determine todos os vetores v  tais que PRv  =  0  e  RPv = 0.

5.3.  Dado o operador linear  A :  E → E, seja N  o conjunto dos vetores v ∈  E  tais que  Av  =  0. Mostre que  N  e um subespaco vetorial de  E.

Prove que A2 = 0  se, e somente se, para todo v ∈ E  tem-se Av ∈ N.

Page 66: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 66/358

Secao 5 Produto de Transformacoes Lineares   55

5.4.   Sejam R, R′ :  R2

→R

2 respectivamente as rotacoes de  angulos  θ

e  θ′  em torno da origem. Partindo do fato de que o produto  RR′  e a

rotacao de  angulo  θ +  θ′, use o Exemplo 4.2 para obter as f ormulasclassicas cos(θ +  θ′) =   cos  θ · cos  θ′  − sen  θ · sen  θ′  e sen(θ +  θ′) =

sen  θ · cos  θ′ + sen  θ′ · cos  θ.

5.5.   Seja A :  E → E um operador nilpotente. Prove que existe algum

vetor v = 0  em  E  tal que Av  =  0.

5.6.  Dados os operadores A, B :  R2

→R

2 dados por A(x, y) = (x + y, 0)

e   B(x, y) = ( − y, x), obtenha as expressoes dos operadores   A  +  B,

AB, BA, A2 e B2. Descreva geometricamente esses cinco operadores.

(Exemplo:   A  e a projecao sobre o eixo  x paralelamente a uma certa

reta. (Qual?))

5.7.   Seja  A :  R3 → R3 dado por  A(x,y,z ) = (ay +  bz, cz, 0). Mostre

que A3 = 0.

5.8.   Sejam  A, B, C, D :  R2 →   R2 os operadores dados por  A(x, y) =

(x, 0),  B(x, y) = (− y, x),   C(x, y) = (0, y)  e  D(x, y) = ( y, −x). Deter-

mine o operador ABCD.

5.9.  Considere as transformacoes lineares A :  R2 → R3 e B :  R3 → R

2,

definidas por:  A(x, y) = (x,y,x + y) e  B(x,y,z ) = (ax + (a − 1) y + (1 −

a)z, −bx + (1 − b) y + bz ). Determine o operador BA :  R2 → R2.

5.10.  Dado o operador A :  R2 → R2, com A(x, y) = (3x − 2y, 2x + 7y),

ache um vetor nao-nulo v  = (x, y) tal que Av  =  5v.

5.11.   Sejam A, B :  E

→E operadores lineares. Suponha que existam

vetores  u, v

 ∈ E tais que Au  e  Av sejam L.D. . Prove que BAu  e  BAv

sao L.D. . Se a dimensao de E  for igual a 2, prove tambem que ABu e  ABv  sao L.D. . (Sugestao: se  u  e  v  sao L.D. o fato  e  obvio. Caso

contrario, u  e  v  formam uma base de E. Exprima Bu  e  Bv  em termos

dessa base e depois aplique A.)

5.12.   Sejam   A, B :  R3 →   R3 definidos por   A(x,y,z ) = (x,y,0)   e

B(x,y,z ) = (x + z, y, 0). Obtenha vetores  u, v ∈   R3 tais que   Au   e

Av sejam L.D. porem ABu  e  ABv  sejam L.I. .

5.13.   No espaco vetorial P  dos polinomios, considere os operadoreslineares  D, A : P  → P   de derivacao  (Dp(x) =  p′(x))  e multiplicacao

por x   (Ap(x) = xp(x))  respectivamente. Determine DA − AD.

Page 67: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 67/358

56   Produto de Transformacoes Lineares Secao 5

5.14.  Seja A :  R2

→R

2 o operador linear definido por  A(x, y) = (ax +

by,cx + dy). Verifique que A2 − (a +  d)A   = (bc  − ad)I. Use esta

igualdade para provar que, se ad − bc = 0, existe um operador linearB :  R2 → R2 tal que BA  =  AB  =  I.

5.15.   Seja  C(A)  o conjunto dos operadores lineares   X :  E →   E  que

comutam com o operador A ∈ L(E) (isto e, AX = XA). Prove que C(A)

e um subespaco vetorial de L(E) e que X, Y  ∈ C(A)⇒ XY  ∈ C(A).

5.16.   Seja  A :  R2

→R

2 um operador linear que nao  e da forma  αI.

Prove:

(a) Existe w ∈ R2

tal que { w, Aw − w} ⊂ R2

e uma base.(b) Se P :  R2 → R

2 e o operador que a cada  v  = xw  + y(Aw − w) ∈ R2

faz corresponder Pv  =  xw  entao AP = PA.

Conclua que os  unicos operadores lineares em  R2 que comutam

com todos os demais sao os da forma αI.

5.17. Estenda o exercıcio anterior para todos os espacos vetoriais de

dimensao finita (maior do que 1) em vez de R2.

5.18.   Sejam  A :  E →   F  uma transformacao linear e  B :  F →   E  umafuncao tal que AB  =  IF  e BA  =  IE. Prove que B  e uma transformacao

linear.

5.19.   Seja   E   um espaco vetorial de dimensao   n. Para todo   k   =

2 , . . . , n, exiba um operador linear   A :  E →   E   tal que   Ak  =   0   mas

A j = 0  se  j < k .

5.20.   Sejam   A, P :   E →   E   operadores lineares nao-nulos tais que

AP   =   0. Prove que existem vetores diferentes de zero   u  =   v   comAu  =  Av.

5.21.  Sejam A :  R2 → R2 um operador linear e  P :  R2 → R2 a projecao

ortogonal sobre uma reta   r   (passando pela origem). Prove que as

seguintes afirmacoes sao equivalentes:

(a) Para todo v ∈ r  tem-se Av ∈ r.

(b) PAP  = AP.

5.22.   Seja X :  F → G uma transformacao linear tal que Xw =  0 paratodo  w =   0  em  F. Prove que se  A, B ∈ L(E; F)  cumprem  XA   =   XB

entao A  =  B.

Page 68: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 68/358

Secao 5 Produto de Transformacoes Lineares   57

5.23.   Seja  X :  E

→F  uma transformacao linear com a seguinte pro-

priedade: para cada w ∈ F  existe (pelo menos) um vetor v ∈ E  tal que

Xv =  w. Suponha que A, B ∈ L(F; G) cumprem a igualdade AX  =  BX.Prove que A  =  B.

5.24.  Sejam A, B :  E→ F transformacoes lineares tais que, para todo

operador linear X :  F→ F, tem-se XA=XB. Prove que A=B.

Page 69: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 69/358

6

Nucleo e Imagem

 Nesta sec ˜ ao, ser´ a examinada com cuidado a possibilidade de uma

transformac ˜ ao linear admitir ou n˜ ao uma inversa. Veremos que isto

 est ´ a associado a existˆ encia e a unicidade da soluc ˜ ao de um sistema

de equac˜ oes lineares. Ser´ a introduzido o conceito de isomorfismo, que

dar´ a um sentido preciso a afirmac ˜ ao de que dois espacos vetoriais de

mesma dimens˜ ao s˜ ao algebricamente indistingu´ ıveis. Tudo comecacom o n´ ucleo e a imagem de uma transformac ˜ ao.

 A toda transformacao linear A :  E → F estao associados dois sub-

espacos vetoriais indispensaveis para estudar o comportamento de

A: o nucleo de A, que  e um subespaco de  E, e a imagem de  A, que  e

um subespaco de  F.

 A  imagem de  A  e o subconjunto I m (A) ⊂   F, formado por todos

os vetores   w   =   Av

 ∈  F   que sao imagens de elementos de   E   pela

transformacao A. A nocao de imagem tem sentido seja qual for a funcao A :  E → F,

seja linear ou nao. Quando A  e linear, entao I m (A)  e um subespaco

vetorial de F, como se ve facilmente.

Se I m (A) =   F, diz-se que a transformacao  A  e  sobrejetiva. Isto

significa que, para qualquer w ∈ F  dado, pode-se achar v ∈ E  tal que

A · v =  w.

Seja   X ⊂   E   um conjunto de geradores do espaco vetorial   E. A 

imagem da transformacao linear   A :  E →   F   e o subespaco vetorialde   F  gerado pelos vetores   Av,   v ∈   X. Em particular,   A   e sobreje-

tiva se, e somente se, transforma X  num conjunto de geradores de  F.

Page 70: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 70/358

Secao 6 Nucleo e Imagem   59

Se  v1, . . . , vn  geram  E  os vetores  Av1, . . . , A vn  geram I m (A). Segue-

se que a dimensao de I m (A)  e menor do que ou igual  a dimensao

do domınio de   A. Este fato sera tornado mais preciso a seguir.(V. Teorema 6.6.)

Exemplo 6.1.  Dado um sistema linear de m  equacoes a n incognitas

a11x1 + a12x2 + · · · + a1nxn  = b1

a21x1 + a22x2 + · · · + a2nxn  = b2

...

am1x1 + am2x2 +

· · ·+ amnxn  = bm ,

seja  A :  Rn → Rm  a transformacao linear cuja matriz nas bases ca-

nonicas de  Rn e  Rm  e  a   = [aij ]. Isto significa, como sabemos, que,

para j  = 1, . . . , n, os vetores

 v j  = Ae j  =

m i=1

aijei  = (a1j, . . . , amj) ∈ Rm 

sao os vetores-coluna da matriz   a. Em termos da transformacaolinear   A, o sistema acima pode ser interpretado como o problema

de achar um vetor  x   = (x1, . . . , xn) ∈  Rn tal que  Ax   =   b, onde  b   =

(b1, . . . , bm ). Portanto o sistema admite solucao se, e somente se, o

vetor b pertence a imagem da transformacao linear A, o que equivale

a dizer que os conjuntos   { v1, . . . , vn}  e   { v1, . . . , vn, b}  geram ambos o

mesmo subespaco I m (A).

Exemplo 6.2.   Um funcional linear   f :   E →   R   e sobrejetivo ou  e

igual a zero, pois   {0}   e  R   sao os  unicos subespacos vetoriais de  R. A derivacao   D :  Ck (R) →   Ck −1(R)   e sobrejetiva, e o mesmo se da

com o operador  D :  C∞(R) →   C∞(R)  e com a transformacao linear

D : P n → P n−1. Se P :  R2 → R2 e a projecao ortogonal sobre uma reta

r, a imagem de P  e essa reta r.

Uma transformacao linear   B :   F →   E   chama-se uma   inversa a

direita da transformacao linear A :  E

→F quando se tem AB  =  IF, ou

seja, quando A(Bw) = w  para todo w ∈ F.

Teorema 6.1.   A fim de que uma transformac ˜ ao linear  A :  E →   F , entre espacos vetoriais de dimens˜ ao finita, possua uma inversa a di-

reita B ∈ L(F; E)  ´  e necess´ ario e suficiente que A  seja sobrejetiva.

Page 71: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 71/358

60   Nucleo e Imagem Secao 6

Demonstrac ˜ ao:  Se A  admite uma inversa a direita B :  F

→E entao,

para todo  w ∈   F  tem-se  A(Bw) =   w, logo  w   =   A ·  v, onde  v   =   Bw,

e   A   e sobrejetiva. (Aqui nao se usou a linearidade de   A, e muitomenos a finitude das dimensoes de   E   e   F.) Suponhamos, em se-

guida, que   A   seja sobrejetiva. A fim de definir uma transforma-

cao linear   B :  F →   E   com   A(Bw) =   w   para todo   w ∈   F, tomamos

uma base B   =   { w1, . . . , wm } ⊂   F. Como   A   e sobrejetiva, podemos

escolher vetores  v1, . . . , vm  ∈   E   tais que  Av1   =   w1, . . . , A vm   =   wm .

Pelo Teorema 4.1, existe uma transformacao linear B :  F→ E tal que

Bw1   =   v1, . . . , B wm   =   vm . Afirmamos que, para todo  w ∈   F, tem-

se   A(Bw) =   w. Com efeito, sendo

 B  uma base, podemos escrever

 w = β1 w1 + · · · + βm  wm , portanto

A(Bw) = A(β1Bw1 + · · · + βm Bwm )

= A(β1 v1 + · · · + βm  vm )

= β1Av1 + · · · + βm Avm 

= β1 w1 + · · · + βm  wm  = w.  

Exemplo 6.3.   Uma transformacao linear sobrejetiva   A :   E →   F

pode admitir mais de uma inversa  a direita  B :  F →   E. Um exem-

plo simples   e dado pela transformacao linear   A :  R3 →   R2, defi-

nida por   A(x,y,z ) = (x, y). Fixados arbitrariamente   a, b ∈   R, a

transformacao linear  B :  R2 → R3, definida por  B(x, y) = (x,y,ax +

by),  e uma inversa  a direita para  A. Variando os numeros  a  e   b,

obtemos infinitas possibilidades para B.

Exemplo 6.4.   Uma inversa  a direita para a derivacao  D : P n+1

 →P n   e a transformacao linear   J :

 P n → P 

n+1, que a cada polinomio

 p(x) = ao + a1x + · · ·+ anxn de grau ≤ n  faz corresponder o polinomio

Jp(x) = aox + a1

2 x2 + · · · +

  an

n + 1xn+1.

O  n ´ ucleo da transformacao linear  A :  E → F  e o conjunto dos ve-

tores  v ∈  E  tais que  Av  =  0. Usaremos a notacao N (A)  para repre-

sentar o nucleo de  A.  E f acil ver que N (A)  e um subespaco vetorial

de E.

Uma transformacao linear  A :  E →   F  chama-se  injetiva   quando v = v′ em E⇒ Av = Av′ em F. Equivalentemente: Av =  Av′ ⇒  v =  v′.Esta nocao tem sentido para qualquer funcao   A :  E →   F, seja ela

Page 72: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 72/358

Secao 6 Nucleo e Imagem   61

linear ou nao. No caso linear, porem, o teorema abaixo simplifica a

verificacao da injetividade.

Teorema 6.2.   A fim de que uma transformac ˜ ao linear   A :  E →   F

 seja injetiva ´  e necess´ ario e suficiente que seu n´ ucleo N (A)   contenha

apenas o vetor nulo.

Demonstrac ˜ ao:   Seja  A   injetiva. Entao  v ∈ N (A) ⇒   A · v   =   0   =

A · 0

 ⇒  v   =   0, logo N (A) =   {0}. Reciprocamente, seja N (A) =   {0}.

Entao  Av   =   Av′ ⇒   A( v −  v′) =   Av −  Av′   =   0 ⇒   v −  v′

 ∈ N (A) ⇒ v − v′  = 0 ⇒  v =  v′, logo A  e injetiva.

Teorema 6.3.  Uma transformac ˜ ao linear ´  e injetiva se, e somente se,

leva vetores L.I. em vetores L.I. .

Demonstrac ˜ ao:   Seja  A :  E

→F uma transformacao linear injetiva.

Se os vetores  v1, . . . , vn ∈   E  sao linearmente independentes, vamos

provar que suas imagens Av1, . . . , A vn

 sao vetores linearmente inde-

pendentes em  F. Com efeito, se α 1 · Av1  + · · · + α n · Avn   =   0  entao

A(α 1 v1  + · · ·  + α n vn) =   0, logo   α 1 v1  + · · ·  + α n vn   =   0   pois   A   e in-

 jetiva. Como   v1, . . . , vn   sao L.I., segue-se que   α 1   = · · ·   =   α n   =   0,

portanto  Av1, . . . , A vn  sao L.I. . Reciprocamente se a transformacao

linear   A :  E →   F   leva vetores L.I. em vetores L.I. entao   v =   0   em

E ⇒  { v}  L.I. ⇒  {Av}  L.I. ⇒ Av =  0, portanto N (A) =   {0}  e  A  e inje-

tiva.

Segue-se deste teorema que se E  tem dimensao finita n  e  A :  E→F  e uma transformacao linear injetiva entao dim  F ≥ n. Assim, por

exemplo, nao existe uma transformacao linear injetiva de R3 em R2.

Teorema 6.4.   Seja  A :  E → F  uma transformac ˜ ao linear. Para todo

b ∈ I m (A) , o conjunto V   =   {x ∈  E; Ax  =  b} , formado pelas soluc˜ oes

do sistema linear  Ax   =   b , ´  e uma variedade afim em  E , paralela ao

n ´ ucleo N (A).

Demonstrac ˜ ao:   Fixemos  x0 ∈  V , isto  e, com  Ax0   =  b. Afirmamos

que V  = x0 + N (A). Com efeito, v ∈ N (A)⇒ A(x0 +  v) = Ax0 + Av =

Page 73: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 73/358

62   Nucleo e Imagem Secao 6

b + 0 =  b

⇒x0 +  v ∈ V . Logo x0 + N (A) ⊂ V . Reciprocamente,

x∈

 V ⇒ x =  x0

 + (x − x0

) = x0

 +  v⇒ b = Ax  =  A(x0 +  v) = Ax0 + Av = b + Av⇒ b = b + Av⇒ Av =  0⇒ x =  x0 +  v ∈ x0 + N (A).

Logo V  ⊂ x0 + N (A).  

Observac ˜ ao. Geometricamente, o Teorema 6.4 significa que o espa-

co vetorial   E   se exprime como uma reuniao de laminas paralelas

V    =   x0   + N (A), cada uma das quais   e uma variedade afim que

se transforma por   A   num  unico ponto   b∈I m (A). Este ponto, na-

turalmente, varia quando se passa de uma lamina para outra. (Veja

Fig. 6.1.)

A

A

 x

 x

0

0

  A

  A

  x  0 O   O

EF

  N

  N

  ( 

  ( 

   )

   )

   +

I m( )A

Figura 6.1.

 Algebricamente, o Teorema 6.4 significa que, para cada   b   ∈ I m (A), obtem-se todas as solucoes  x ∈  E  do sistema linear  Ax   =  b

assim: acha-se uma “solucao particular” x0 desse sistema e a solucao

geral x  =  xo + v  e a soma dessa solucao particular com a “solucao ge-

ral  v  do sistema homog eneo associado”  Ax  =  0. Naturalmente, esta

ultima e um elemento qualquer do nucleo de A. Se b /∈ I m (A) entao

o sistema Ax  =  b, evidentemente, nao possui solucao.

Exemplo 6.5.  O nucleo de uma rotacao ou de uma reflexao no planoR

2 reduz-se a  {0}. O nucleo da projecao ortogonal  P :  R2 → R2 sobre

a reta  r  e a reta que contem 0 e  e perpendicular a  r. O nucleo da

Page 74: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 74/358

Secao 6 Nucleo e Imagem   63

derivacao   D :  Ck (R)

 →  Ck −1(R)   e o subespaco uni-dimensional de

Ck (R)   formado pelas funcoes constantes. O nucleo de um funcional

linear nao-nulo ϕ :  E→ R e um hiperplano H ⊂ E.Sejam  A :  E → F  e  B :  F → E   transformacoes lineares. Diz-se que

B  e uma   inversa a esquerda  de  A   quando  BA   =   IE, isto  e, quando

B(Av) = v  para todo v ∈ E.

Exemplo 6.6.   Seja  A :  R2 → R3 definida por A(x, y) = (x + 2y, 2x +

3y,3x + 4y). A transformacao linear B :  R3 → R2, dada por

B(x,y,z ) = (−3x + 2y,2x − y)

cumpre a relacao

B(A(x, y)) = B(x + 2y,2x + 3y,3x + 4y)

= (−3(x + 2y) + 2(2x + 3y), 2(x + 2y) − (2x + 3y))

= (x, y)

para qualquer (x, y) ∈ R2. Logo B  e uma inversa  a esquerda para A.

Exemplo 6.7.   Uma transformacao linear pode admitir uma infini-

dade de inversas  a esquerda. Por exemplo, seja A :  R2 →   R3 dadapor   A(x, y) = (x,y,0). Para quaisquer   a, b ∈   R, a transformacao

linear  B :  R3 →  R2, dada por  B(x,y,z ) = (x +  az, y +  bz )  e uma in-

versa  a esquerda de  A, pois  BA(x, y) =  B(x,y,0) = (x, y)  para todo

(x, y) ∈ R2.

Teorema 6.5.   Sejam  E  e  F  espacos vetoriais de dimens˜ ao finita. A

transformac ˜ ao linear  A :  E

 →  F   possui inversa a esquerda se, e so-

mente se, ´  e injetiva.

Demonstrac ˜ ao:   Seja   B :  F →   E   inversa  a esquerda de   A. Entao

Au   =  Av ⇒  u   =  B(Au ) =   B(Av) =  v, logo  A  e injetiva. Reciproca-

mente, suponhamos que A  seja injetiva. A fim de obter uma inversa

a esquerda  B  para  A, tomemos  { v1, . . . , vn} ⊂  E, uma base. Pelo Te-

orema 6.3, os vetores  Av1, . . . , A vn ∈  F  sao L.I., logo podemos achar

vetores w1, . . . , wk  ∈ F tais que

 {Av1, . . . , A vn, w1, . . . , wk }

⊂ F

seja uma base. (Teorema 3.4.) Pelo Teorema 4.1, a fim de definir

a transformacao linear  B :  F → E, basta especificar seus valores nos

Page 75: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 75/358

Page 76: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 76/358

Secao 6 Nucleo e Imagem   65

Exemplo 6.8.   O espaco P n, dos polinomios de grau ≤   n, tem di-

mensao n +1, logo e isomorfo a Rn+1. Por sua vez, o espaco M(m × p),

das matrizes   m  × p,   e isomorfo a  R

mp

, portanto P n   e isomorfo aM(m × p) se, e somente se, n + 1 = mp.

 A nocao de isomorfismo entre espacos vetoriais  e fundamental .

Ela nos permite identificar, sob o ponto de vista da   ´ Algebra Li-

near, espacos vetoriais que se apresentam sob formas  a primeira

vista diferentes. Por exemplo, a correspondencia (ao, . . . , an)↔ ao +

a1x  + · · ·  +  anxn,   e um isomorfismo natural entre   Rn+1 e P n, que

desempenha papel relevante em Analise.

Noutro exemplo, se dispusermos os elementos de uma matriz n

×n em fileiras paralelas  a sua diagonal principal, veremos que ha um

total de

n + (n − 1) + · · · + 2 + 1 =  n(n + 1)

2elementos nesta diagonal ou acima dela. Colocando esses elementos

numa linha, em ordem determinada, obtemos um vetor de Rn(n+1)/2.

Se a matriz dada  e simetrica, os elementos abaixo da diagonal nao

sao necessarios para determina-la pois apenas repetem os demais.

Este processo estabelece um isomorfismo entre o espaco vetorialS   das matrizes simetricas   n ×  n   e o espaco euclidiano   Rn(n+1)/2,

o que nos permite concluir que dim  S   =   n(n + 1)/2 . Um isomor-

fismo analogo (desprezando a diagonal principal que, neste caso, so

contem zeros) mostra que as matrizes anti-simetricas n × n formam

um espaco vetorial de dimensao n(n − 1)/2.

Teorema 6.6.   (Teorema do Nucleo e da Imagem.)   Sejam  E ,   F

 espacos vetoriais de dimens˜ ao finita. Para toda transformac ˜ ao linear

A :  E→ F tem-se dim  E =  dim N (A) + dim I m (A).Demonstrac ˜ ao:   O teorema resulta imediatamente da seguinte

afirmacao mais precisa, que provaremos a seguir: se  {Au 1, . . . , A u   p}

e uma base de I m (A)   e   { v1, . . . , vq}   e uma base de N (A)   entao

 { u 1, . . . , u   p, v1, . . . , vq}  e uma base de  E.

Com efeito, em primeiro lugar, se tivermos

α 1 u 1 + · · · + α  p u  p + β1 v1 + · · · + βq vq  = 0   (*)

entao, aplicando o operador  A  a ambos os membros desta igualdade

e lembrando que v1, . . . , vq  pertencem ao nucleo de A, obtemos

α 1 Au 1 + · · · + α  p Au  p  = 0.

Page 77: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 77/358

66   Nucleo e Imagem Secao 6

Como os vetores  Au 1, . . . , A u   p   sao L.I., resulta daı que  α 1   = · · ·   =

α  p  = 0. Portanto a igualdade (*) se reduz a

β1 v1 + · · · + βq vq  = 0.

Como   v1, . . . , vq   sao L.I., concluımos que   β1   = · · ·   =   βq   =   0. Isto

mostra que os vetores  u 1, . . . , u   p, v1, . . . , vq  sao L.I. .

Em seguida, consideremos um vetor arbitrario   w ∈   E. Como

Aw ∈ I m (A), podemos escrever

Aw =  α 1 Au 1 + · · · + α  p Au  p ,

pois  {Au 1, . . . , A u   p}  e uma base da imagem de A. A igualdade acima

pode ser reescrita como

A[ w − (α 1 u 1 + · · · + α  p u  p)] = 0.

 Assim, o vetor w − (α 1 u 1 + · · · + α  p u  p) pertence ao nucleo de A, logo

pode ser expresso como combinacao linear dos elementos da base

 { v1, . . . , vq}. Temos entao

 w − (α 1 u 1 + · · · + α  p u  p) = β1 v1 + · · · + βq vq ,

ou seja, w  =  α 1 u 1 + · · · + α  p u  p +  β1 v1 + · · · + βq vq . Isto mostra que

os vetores  u 1, . . . , u   p, v1, . . . , vq  geram  E  e portanto constituem uma

base.

Corolario.   Sejam E ,  F  espacos vetoriais de mesma dimens˜ ao finita

n. Uma transformac ˜ ao linear  A :  E

→F   ´  e injetiva se, e somente se, ´  e

 sobrejetiva e portanto ´  e um isomorfismo.

Com efeito, temos n  = dim N (A) + dim I m (A). Logo N (A) =  {0}

se, e somente se dim I m (A) = n, ou seja, I m (A) = F.

Exemplo 6.9.  Um caso particular do corolario acima diz que, num

espaco vetorial de dimensao finita, um operador linear e injetivo se,

e somente se, e sobrejetivo. Isto seria falso num espaco de dimensao

infinita, como se ve no seguinte exemplo: sejam   A, B :  R∞

→  R∞

definidos por

A(x1

, x2

, x3

, . . .) = (0, x1

, x2

, x3

, . . .)

e

B(x1, x2, x3, . . .) = (x2, x3, x 4, . . .).

Page 78: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 78/358

Secao 6 Nucleo e Imagem   67

A  e  B  sao operadores lineares. O primeiro e injetivo mas nao  e so-

brejetivo e o segundo e sobrejetivo mas nao e injetivo.

Exemplo 6.10.  O Teorema do Nucleo e da Imagem da outra expli-cacao para o fato de um hiperplano  H ⊂ Rn ter dimensao n  − 1. Por

esse teorema, se dim  E   =   n  e   f :  E →   R  e um funcional linear =   0

entao o nucleo de f  e um subespaco vetorial de dimensao n − 1 em  E,

pois f  nao-nulo implica I m (f) =  R logo dim I m (f) = 1  e dim N (f) =

dim  E − dim I m (f) = n − 1. Ora, o hiperplano

H =  {(x1, . . . , xn) ∈ Rn; a1x1 + · · · + anxn  = 0}

e o nucleo do funcional linear nao nulo f :  Rn → R, definido por

f(x1, . . . , xn) = a1x1 + · · · + anxn.

Teorema 6.7.   Se uma transformac ˜ ao linear   A :   E →   F   tem uma

inversa a esquerda B :  F

→E e uma inversa a direita C :  F

→E ent˜ ao

B =  C  e  A  ´  e um isomorfismo, com A−1 = B  = C.

Demonstrac ˜ ao:   Tem-se  BA   =   IE   e  AC   =   IF. Portanto  B   =   BIF   =B(AC) = (BA)C =  IEC =  C.

Corolario.   Seja   dim  E   =   dim  F. Se as transformac˜ oes lineares

A :  E→ F , B :  F→ E s ˜ ao tais que BA  =  IE  ent˜ ao AB  =  IF  e B  = A−1.

Com efeito,   BA   =   IE ⇒   A   injetiva ⇒   A  sobrejetiva (Corolario

do Teorema 6.6)

⇒  AC   =   IF   para alguma   C

 ⇒  C   =   B   (Teor. 6.7)

⇒AB = IF.

Exercıcios

6.1.   Prove que o nucleo e a imagem de uma transformacao linear

A :  E→ F sao respectivamente subespacos vetoriais de E  e  F.

6.2.   Seja   A :  E

 →  E   um operador linear. Para quaisquer vetores

 u  ∈ N 

(A) e  v ∈ I 

m (A), prove que se tem Au  ∈ N 

(A) e  Av ∈ I 

m (A).

6.3. Encontre numeros a, b, c, d de modo que o operador A :  R2 → R2,

dado por A(x, y) = (ax+by, cx+dy) tenha como nucleo a reta y  =  3x.

Page 79: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 79/358

68   Nucleo e Imagem Secao 6

6.4.   Ache  a,  b,  c,  d  tais que o operador  A :  R2

→ R

2 com  A(x, y) =

(ax + by, cx + dy), tenha a reta y  =  2x  como imagem.

6.5.   Escreva a expressao de um operador  A :  R2 →   R2 cujo nucleoseja a reta y  =  x  e cuja imagem seja a reta  y  =  2x.

6.6.  Defina um operador A :  R2 → R2 que tenha como nucleo e como

imagem o eixo x.

6.7.  Resolva um exercıcio analogo ao anterior, com a reta  y  = 5x  em

lugar do eixo x.

6.8.  Considere a transformacao linear A :  R 4 → R3, dada por

A(x,y,z,t) = (x + y + z + 2t,x − y + 2z,4x + 2y + 5z + 6t),

encontre um vetor  b ∈  R3 que nao pertenca  a imagem de  A  e com

isso exiba um sistema linear de tres equacoes com quatro incognitas

sem solucao.

6.9.  Seja E  =  C0(R) o espaco das funcoes contınuas f :  R

→R. Defina

o operador linear  A :  E →   E  pondo, para cada  f

 ∈  E,  Af   =   ϕ, onde

ϕ(x) = x0 f(t) dt,  x ∈  R. Determine o nucleo e a imagem do opera-

dor A.

6.10.   Seja   E   =   R∞ o espaco vetorial cujos elementos sao as se-

quencias   x   = (x1, x2, . . .)   de numeros reais. Defina os operadores

lineares  A, B :  E → E  pondo  Ax   = (x1, 0 , x2, 0 , x3, . . .)  e  Bx   =   y, onde

 y = ( y1, y2, . . .), onde yk  = xk +1−2xk . Determine o nucleo e a imagem

de A  e  B.

6.11.  Assinale verdadeiro (V) ou falso (F):

( ) Uma transformacao linear A :  E→F  e sobrejetiva se, e somente

se, dim N (A) = dim  E − dim  F.

( ) Dada a transformacao linear  A :  E → F, para todo  b  fixado em

F, o conjunto G  = {x ∈ E; Ax =  b}  e um subespaco vetorial de E.

( ) Para todo operador linear A :  E→ E, tem-se E  =

 N (A)

⊕ I m A.

( ) Todo operador linear injetivo no espaco  C0(R) das funcoes con-

tınuas f :  R→ R  e tambem sobrejetivo.

Page 80: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 80/358

Secao 6 Nucleo e Imagem   69

( ) O nucleo de toda transformacao linear   A :  R5

→  R

3 tem di-

mensao ≥ 3.

6.12.   Seja  a   = [aij ]  uma matriz  m × n. Se suas colunas geram um

subespaco vetorial   F, de dimensao   r, em  Rm  prove que, para todo

b ∈ F, as solucoes x  = (x1, . . . , xn) do sistema linearn

 j=1

aijx j  = bi   (i =

1 , . . . , m  ) formam uma variedade afim de dimensao n − r em Rn.

6.13. Prove que cada uma das transformacoes lineares abaixo e inje-

tiva e obtenha uma inversa  a esquerda linear para cada uma delas.

(a)   A :  R→ Rn; A(x) = (x , 2 x , . . . , n x).

(b)   B :  R2 → R3; B(x, y) = (x + 2y,x + y, x − y).

(c)   D :  R3 → R 4; D(x,y,z ) = (2x,3y,5z,x + y + z ).

(d)   C : P n →P n+2 ; C · p(x) = (x2 + 1) p(x).

6.14.  Seja E  um espaco vetorial de dimensao finita. Dado um opera-

dor linear A :  E → E, defina o novo operador  T A : L(E) → L(E)  pondo

T A(X) =   AX, para todo   X ∈ L(E). Prove que   T A   e invertıvel se, e

somente se, A  e invertıvel. Mesmo problema para SA(X) = XA.

6.15. Sejam F1 , F2 subespacos de E tais que dim  F1 + dim  F2  = dim  E.

Mostre que existe um operador linear A :  E

→E tal que F1  = N (A) e

F2  = I m (A).6.16.   Prove que uma transformacao linear  A :  E →   F  e sobrejetiva

se, e somente se, transforma um conjunto de geradores de   E   num

conjunto de geradores de F.

6.17.   Seja   A :  R2 →   R2 um operador linear =   0. Se   An =   0   para

algum  n > 2, prove que  A2 =  0. [Sugestao: seja  F  = I m A. Entao a

restricao de A  a reta F  e zero ou  e invertıvel.]

6.18.   Seja   A : P n → P n   o operador linear definido por   A · p(x) =x ·  p′′′(x). Descreva o nucleo e a imagem de  A. Obtenha bases para

 N (A) e para I m (A).

Page 81: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 81/358

70   Nucleo e Imagem Secao 6

6.19.  Assinale verdadeiro (V) ou falso (F):

( ) Se a transformacao linear A : R

m → Rn

e injetiva entaodim I m (A) = m .

( ) Se A :  Rm → Rn e sobrejetiva entao dim N (A) = m − n.

( ) Se  A, B ∈ L(Rn)  sao tais que dim I m (A) =   dim I m (B)   entao

dim I m (AB) = dim I m (BA) = dim I m (A).

( ) Se N (A)  e gerado pelos vetores  v1,   v2,   v3   entao a imagem do

operador A :  R5 → R5 tem dimensao 2.

6.20.  Determine uma base para a imagem de cada uma das trans-

formacoes lineares abaixo e indique quais sao sobrejetivas.

(a)   A :  R2 → R2, A(x, y) = (x − y, x − y).

(b)   B :  R 4

→R 4, B(x,y,z,t) = (x + y, z + t, x + z, y + t).

(c)   C :  R3 → R

3

, C(x,y,z ) =

x +  y

2 , y +  z 2 , z +

  x2

.

(d)   D :  M(2 × 2)→M(2 × 2), D · X =  AX, onde A  =

1 1

0 1

.

(e)   E : P n → P n+1, E · p(x) = x · p(x).

6.21. Prove que as transformacoes lineares a seguir sao sobrejetivas

e obtenha uma inversa  a direita linear para cada uma delas.

(a)   A :  R3 → R2, A(x,y,z ) = (2x + y, z ).

(b)   B : P n → R, B · p(x) = p(1).

(c)   C :  R2 → R2, C(x, y) = (x + y, x − y).

(d)   P :  Rn

→R

n−1, P(x1, . . . , xn) = (x1, . . . , xn−1).

Mostre que em tres dos quatro exemplos acima, as transforma-coes dadas admitem infinitas inversas  a direita lineares e infinitas

nao-lineares.

Page 82: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 82/358

Secao 6 Nucleo e Imagem   71

6.22.   Para cada uma das nove transformacoes lineares dos exercı-

cios anteriores, determine o nucleo e obtenha uma base do mesmo,

caso nao se reduza a {0}.6.23.   Seja   T : P n →  P n   o operador linear definido por   T.p(x) =

5p(x) − 4p′(x) + p′′(x). Mostre que seu nucleo  e   {0}  e conclua que,

para todo polinomio  b(x)  existe um polinomio  p(x)   tal que  5p(x) −

 4p′(x) +  p′′(x) = b(x).

6.24.   Seja X ⊂ F  um subconjunto com a seguinte propriedade: toda

transformacao linear A :  E

→F cuja imagem contem X  e sobrejetiva.

Prove que X  e um conjunto de geradores de  F.

(Sugestao:  e muito mais f acil do que parece.)

6.25.   Seja   A :  E →   F   uma transformacao linear sobrejetiva entre

espacos vetoriais de dimensao finita. Prove que existe um subespaco

vetorial   E′  ⊂   E   tal que a restricao de   A   a   E′   e um isomorfismo

sobre F.

6.26.   Seja  A :  E

→F um isomorfismo. Se T :  F

→E  e tal que  AT   =  IF

(ou TA  =  IE), prove que T  e linear.

6.27.   Sejam  E,  F  espacos vetoriais de dimensao finita. Se dim  E <

dim  F, prove que existem transformacoes lineares   A :   E →   F   e

B :  F→ E tais que A  e injetiva e B  e sobrejetiva.

6.28.   Dadas as transformacoes lineares  A :  E →   F,  B :  F →   G, assi-

nale V(erdadeiro) ou F(also) nas seguintes implicacoes:

( ) BA  sobrejetiva

⇒B sobrejetiva.

( ) BA  sobrejetiva⇒ A sobrejetiva.

( ) BA  injetiva⇒ B injetiva.( ) BA  injetiva⇒ A injetiva.

Prove ainda que se  E   =   F   =   G  entao as quatro implicacoes sao

verdadeiras.

6.29. Prove que toda transformacao linear A pode escrever-se como o

produto A  =  TS, onde S  e uma transformacao linear sobrejetiva e T  e

uma transformacao linear injetiva. Vale tambem uma decomposicao

do tipo A  = S′T ′, com S

′ sobrejetiva e T 

′  injetiva?

6.30.  Dado o conjunto finito  X com  n elementos, prove que o espaco

vetorial F (X;R)  e isomorfo a  Rn. Mais geralmente, dado qualquer

Page 83: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 83/358

72   Nucleo e Imagem Secao 6

espaco vetorial  E, estabeleca um isomorfismo entre F (X; E)  e  En =

E × · · · × E (n fatores).

6.31.  Dados os numeros reais a  = ao  < a1  < · · · < an  = b, considereo conjunto  E1 ⊂ F ([a, b ];R)  formado pelas funcoes  f : [a, b ] → R  que,

em cada intervalo fechado   [ai−1, ai ],  i  =  1, . . . , n, sao representadas

por polinomios de grau ≤  1, isto  e,  f(x) =  α ix +  βi   para  ai−1 ≤  x ≤ai. Prove que  E1   e um subespaco vetorial e que a correspondencia

f →   (f(ao), . . . , f(an))  e um isomorfismo entre   E1   e  Rn+1. Conclua

que dim  E1   =  n +  1. Descreva a base de  E1  que corresponde  a base

canonica de Rn+1.

6.32.   Com a notacao de exercıcio anterior, seja   E2   o conjunto dasfuncoes derivaveis   f : [a, b ] →   R   cujas restricoes aos intervalos

[ai−1, ai ],   i   =   1, . . . , n, sao polinomios de grau ≤   2. Considerando

a derivacao  D :  E2 → E1, prove que  E2 ⊂ F ([a, b ];R)  e um subespaco

vetorial de dimensao n + 2.

6.33.   Sejam  E  um espaco vetorial de dimensao finita,  E∗   = L(E;R)

seu dual e  E∗∗   = L(E∗;R)  seu  bi-dual. Considere a correspondencia

ξ :  E→ E∗∗, que associa a cada vetor v

 ∈ E o elemento ξ( v) = v∗∗

 ∈ E∗∗

tal que v∗∗(f) = f( v) para todo v ∈ E. Prove que  ξ  e um isomorfismo.[Este exercıcio significa que f( v) pode ser considerado como um valor

da funcao  f  de variavel  v  ou da funcao  v  (mais exatamente,  v∗∗) de

variavel f.]

6.34.  Seja f :  E → R um funcional linear nao-nulo no espaco vetorial

E, de dimensao  n. Prove que existe uma base   { u 1, . . . , u  n} ⊂   E   tal

que  f( u 1) = · · ·  =  f( u n−1) =  0 e f( u n) =  1. Use este fato para provar

que se  g :  E → R  e outro funcional linear nao-nulo entao existe um

isomorfismo A :  E→ E tal que g  =  f ◦ A.

6.35.   Dado o funcional linear nao-nulo  f :  E →  R, prove que existe

um vetor u  ∈ E  tal que f( u ) = 1. Seja F ⊂ E  o subespaco (reta) gerado

por u . Prove que E  =  F ⊕ N (f).

6.36.   Sejam   f, g :  E →   R   funcionais lineares nao-nulos no espaco

vetorial   E, de dimensao finita. Prove que um deles  e multiplo do

outro se, e somente se, eles tem o mesmo nucleo.

6.37.   Supondo   Y  ⊂   X, descreva o nucleo e a imagem da transfor-macao linear R : F (X;R)→F (Y ;R), que associa a cada funcao f :  X→Rsua restricao Rf  =  f|Y :  Y → R.

Page 84: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 84/358

Secao 6 Nucleo e Imagem   73

6.38.   Sejam  E,  F  os espacos vetoriais cujos elementos sao respecti-

vamente as funcoes pares e as funcoes ımpares  R

→R. Descreva o

nucleo e a imagem das transformacoes lineares R :  E→ F ([0, +∞);R

)e  R′ :  F → F ([0, +∞);R)  que associam a cada funcao   f :  R →   R  sua

restricao ao intervalo [0, +∞).

6.39.   Estabeleca um isomorfismo entre o espaco vetorial das matri-

zes simetricas n × n e o espaco das matrizes triangulares inferiores

(aij  = 0 se i < j). Idem entre as matrizes anti-simetricas e as trian-

gulares inferiores com diagonal nula.

6.40. Sejam F1 e  F2 subespacos vetoriais de dimensao 3 em R5. Quais

sao as dimensoes possıveis do subespaco  F1 ∩ F2 ? Mesma pergunta

com dim  F1  = 4  e dim  F2  = 3.

6.41.   Seja  A :  E →   E   um operador linear. Prove que  A2 =   0  se, e

somente se, I m (A) ⊂ N (A).

6.42.   Dadas as transformacoes lineares  A, B :  E → F, entre espacos

vetoriais de dimensao finita, prove:

(a) Se N (A) = N (B)  entao existe um isomorfismo  Q :  F → F  tal queB =  QA.

(b) Se I m (A) = I m (B) entao existe um isomorfismo P :  E→ E tal que

B =  AP.

(c) Se dim N (A) =  dim N (B)  (ou, equivalentemente, dim I m (A) =

dim I m (B)) entao existem isomorfismos  P :  E →   E  e  Q :  F →   F   tais

que B  =  QAP.

(d) Existem operadores lineares  A, B :  E →   E  tais que

 N (A)=

 N (B),

 I m (A) = I m (B), sem que exista um isomorfismo   P :  E →   E, comB =  P−1AP.

6.43.   Se os vetores  v1, . . . , vm  ∈   E  geram um subespaco vetorial de

dimensao   r, prove que o conjunto dos vetores   (α 1, . . . , α  m )  ∈   Rm 

tais que   α 1 v1   + · · ·  +  α m  vm    =   0   e um subespaco vetorial de   Rm 

com dimensao  m  −  r. [Sugestao: considere a transformacao linear

(α 1, . . . , α  m ) 

→α 1 v1 + · · · + α m  vm , de Rm  em E.]

6.44.   Seja A :  E → E  um operador linear tal que  Ak  =  0  para algumnumero natural k . Prove que, para todo  α  =  0, o operador  A − αI  e

invertıvel.

Page 85: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 85/358

74   Nucleo e Imagem Secao 6

6.45.   Se, para algum  α o =   0, tem-se  α oI +  α 1A + · · · + α m Am  =   0,

prove que o operador linear A  e invertıvel.

6.46. Sem fazer hipoteses sobre as dimensoes de E e F, sejam A :  E→F e B :  F → E transformacoes lineares. Se  AB  e invertıvel, prove que

A  e sobrejetiva e B  e injetiva. Se AB  e  BA  sao invertıveis, prove que

A  e invertıvel.

6.47.  Calcule (B−1 AB)m .

Page 86: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 86/358

7

Soma Direta e Projecao

 Esta sec ˜ ao trata da decomposic ˜ ao de um espaco vetorial como soma

de subespacos independentes, mostra que essa decomposic ˜ ao equivale

a definir um operador idempotente no espaco e estabelece a conex˜ ao

 entre projec˜ oes e involuc˜ oes, ou simetrias.

Na Secao 2, vimos que se F1 e F2 sao subespacos do espaco vetorial

E, o subespaco vetorial de  E  gerado pela reuniao F1 ∪ F2  e o conjunto

F1  +  F2   de todas as somas   u  +  v, onde   u  ∈   F1   e   v ∈   F2. No caso

particular em que  F1 ∩ F2  =  {0}, escreve-se F1 ⊕ F2  em vez de  F1 +  F2,

diz-se que  F1 ⊕ F2  e a  soma direta  de  F1  com  F2  e prova-se (Teorema

2.1) que a condicao F1 ∩ F2  =  {0} equivale a dizer que u  + v  = u ′ +  v′,com u, u ′

 ∈ F1  e v, v′

 ∈ F2, implica u  =  u ′  e v  =  v′.

Existe uma nocao analoga  a de soma direta, que  e o produto car-

tesiano  E1 × E2  de dois espacos vetoriais  E1   e  E2. Aqui  E1   e  E2   nao

precisam ser subespacos vetoriais do mesmo espaco  E. Os elemen-

tos do conjunto  E1 × E2   sao os pares ordenados   ( u, v), onde  u  ∈   E1

e  v ∈   E2. As operacoes que tornam  E1 × E2  um espaco vetorial sao

definidas por

( u, v) + ( u ′, v′) = ( u + u ′, v + v′), α ( u, v) = (αu, αv),

para quaisquer   u, u ′  ∈   E1,   v, v′  ∈   E2   e   α  ∈   R. O vetor nulo de

E1 ×  E2   e o par (0,0) e o inverso aditivo de   ( u, v)   e   (− u, − v). Se

Page 87: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 87/358

Page 88: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 88/358

Secao 7 Soma Direta e Projecao   77

direta dos subespacos  F1  e  F2, define-se o operador linear  P :  E

→E,

 projec ˜ ao de  E  sobre  F1 , paralelamente a  F2, do seguinte modo: todo

vetor   w ∈   E   se escreve, de modo  unico, como soma   w   =   u  + v   deum vetor  u  ∈   F1  com um vetor  v ∈  F2. Poe-se entao  Pw   =   u . (Veja

Fig. 7.1.)

 w

O   u 

 v

F

F

2

1

Figura 7.1.

O operador linear   P :   E →   E   assim definido tem imagem   F1   e

nucleo  F2. Alem disso, como se ve facilmente,  P  e  idempotente, isto

e,   P2 =   P. O teorema seguinte mostra que, reciprocamente, todo

operador linear idempotente e uma projecao.

Preliminarmente, observemos que se   P2 =   P   entao, para todo

 w ∈ I m (P), tem-se   Pw   =   w   pois   w ∈ I m (P)

 ⇒  w   =   Pv

 ⇒  Pw   =

PPv =  Pv  = w.

Teorema 7.2.   Seja  P :  E → E  um operador linear. Se  P2 =  P  ent˜ ao

E   ´  e a soma direta do n ´ ucleo com a imagem de  P. Al´  em disso,  P   ´  e a

 projec ˜ ao sobre I m (P) paralelamente a N (P).

Demonstrac ˜ ao:  Todo v ∈ E  escreve-se como soma v  = ( v − Pv) + Pv,

onde  Pv, evidentemente, pertence a I m (P) e, como  P( v − Pv) = Pv −

PPv  =  Pv −  Pv  =  0, vemos que  v −  Pv ∈ N (P). Portanto  E  = N (P) +

 I m (P). Se  w ∈ N (P) ∩ I m (P), por um lado tem-se  Pw   =   0  e, por

outro,  Pw   =   w; logo  w   =   0. Assim N (P) ∩ I m (P) =   {0}  e tem-se asoma direta  E  = N (P) ⊕ I m (P). A  ultima afirmacao do enunciado  e

obvia.

Page 89: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 89/358

78   Soma Direta e Projecao Secao 7

Exemplo 7.1.   Para todo operador linear   A :  E

 →  E   num espaco

vetorial de dimensao finita vale a relacao dim  E   =   dim N (A) +

dim I m (A). Isto porem nao implica que se tenha sempre E = N (A)⊕ I m (A). Por exemplo, se   A :   R2 →   R2 e definido por   A(x, y) =

(x − y, x − y) entao, tomando w  = (1, 1), temos w  =  Av, com v  = (2, 1)

e Aw  = 0, logo N (A) ∩ I m (A) contem o vetor nao-nulo w.

Outro exemplo de operador linear que esta ligado a decomposicao

de um espaco vetorial como soma direta de dois subespacos  e forne-

cido pelas involucoes.

Uma involuc ˜ ao  e um operador linear S :  E

→E  tal que S2 =  I, ou

seja, S(Sv) = v  para todo v

 ∈ E.

Noutras palavras, uma involucao e um operador invertıvel, igual

ao seu proprio inverso. Um exemplo de involucao e a reflexao (orto-

gonal) no plano em torno de uma reta que passa pela origem.

 Veremos agora que toda involucao  e a reflexao em torno de um

subespaco, paralelamente a outro.

Teorema 7.3.   Seja   S :  E

 →  E  uma involuc ˜ ao. Os conjuntos   F1   =

 { u  ∈   E; Su   =   u }  e  F2   =   { v ∈   E; Sv   = − v}  s ˜ ao subespacos vetoriais e

E =

 F1⊕F2. Para todo

 w =

 u +

 v , com

 u ∈ F1 e

 v ∈ F2 tem-se

 Sw =

 u −

 v.

 Al´  em disso,  P   =   12 (S + I)   ´  e a projec ˜ ao sobre  F1 , paralelamente a  F2.

(Veja Fig. 7.2.)

 u 

 v

 w

 v

Sw

0

F2

-

F 1

Figura 7.2.

Page 90: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 90/358

Secao 7 Soma Direta e Projecao   79

Demonstrac ˜ ao: Para todo w ∈ E, podemos escrever w  =  u + v, onde

 u  = ( w + Sw)/2 e  v  = ( w − Sw)/2. Como S2 = I,  e claro que Su  =  u  e

Sv  = − v, ou seja, u  ∈ F1  e v ∈ F2.  ´E claro tambem que F1 ∩ F2  =  {0} eque w  =  u + v⇒ Sw =  u − v se  u  ∈ F1  e v ∈ F2. Finalmente,

P  = 1

2(S + I)⇒ P2 =

  1

 4(S2 + 2S + I)

=  1

 4(2S + 2I)

=  1

2(S + I) = P.

 V e-se facilmente que o nucleo de P  e F2  e a imagem de P  e F1.

Na situacao descrita pelo Teorema 7.3, diz-se que a involucao S  e

a reflexao em torno do subespaco F1, paralelamente a F2. O caso mais

comum de reflexao e aquele em que se tem dim  E =  n, dim  F1  = n −1

e dim  F2   =  1, de modo que  S  e a reflexao em torno do hiperplano  F1

paralelamente  a reta F2.

Exercıcios

7.1.   No plano  R2, considere as retas  F1   e  F2 , definidas respectiva-

mente pelas equacoes y  =  ax  e  y  =  bx, com a = b. Em seguida:

(1) Exprima cada vetor v  = (x, y) ∈ R2 como soma de um vetor em

F1  e um vetor em  F2 .

(2) Obtenha a matriz (em relacao  a base canonica) da projecao

P :  R2 → R2, que tem F1  como nucleo e F2  como imagem.

(3) Ache a matriz da reflexao   S :  R2 →   R2, em torno da reta   F2 ,

paralelamente a F1 .

7.2.   Se  P, Q :  E

→E  sao projecoes e  PQ   =  QP, prove que  PQ  e uma

projecao cujo nucleo e N (

P) +

 N (

Q)

 e cuja imagem e I m (

P)∩I m 

(Q

).

7.3.  Exprima um vetor arbitrario v  = (x,y,z ) ∈ R3 como soma de um

vetor do plano F1 , cuja equacao e x + y − z  =  0, com um vetor da reta

Page 91: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 91/358

80   Soma Direta e Projecao Secao 7

F2 , gerada pelo vetor  (1,2,1). Conclua que  R3 =  F1 ⊕ F2 . Determine

a matriz (relativa  a base canonica) da projecao P :  R3

→R

3, que tem

imagem F1  e nucleo F2 .7.4.  E dado um operador linear  P :  E → E. Assinale verdadeiro (V)

ou falso (F):

( ) Se E  = N (P) ⊕ I m (P) entao P  e uma projecao.

( ) Se E  = N (P) + I m (P) entao P  e uma projecao.

( ) Se P  e uma projecao entao I − P tambem e.

( ) Se   P   e uma projecao entao I m (P) =  N (I   −  P)   e N (P) =

 I m (I − P).

7.5.   Se N (P) = I m (I −  P), prove que o operador linear  P :  E → E  e

uma projecao.

7.6.  Mostre que 1 0 a b0 1 c d

0 0 0 0

0 0 0 0

e a matriz (na base canonica) de uma projecao P :  R 4 → R

 4. Escreva

as equacoes que definem o nucleo e a imagem dessa projecao.

7.7.   Prove que o operador  P :  R2

→  R

2, dado por  P(x, y) = (−2x −

 4y,  3

2x + 3y)  e a projecao sobre uma reta. Determine o nucleo e a

imagem de P.

7.8.  Considere o operador linear A :  R3 → R3, dado por

A(x,y,z ) = ( 40x + 18y − 6z, 18x + 13y + 12z, −6x + 12y + 45z ).

Mostre que   P   =   1 49 ·  A   e uma projecao, que I m (P)   e um plano e

determine a equacao desse plano.

7.9.   Sejam  F1,  F2  subespacos vetoriais de  E, com dim  F1  + dim  F2   =dim  E   (dimensoes finitas). Prove que E   =   F1 ⊕ F2  se, e somente se,

F1 ∩ F2  =  {0}.

Page 92: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 92/358

Secao 7 Soma Direta e Projecao   81

7.10.   Seja   A :   E

 →  E   um operador linear num espaco vetorial de

dimensao finita. Prove que   E   = N (A) ⊕ I m (A)  se, e somente se,

 N (A) = N (A2

).7.11.   Suponha que o espaco vetorial de dimensao finita   E   admita

a decomposicao  E   =   F1 ⊕ · · · ⊕ Fk , como soma direta de subespacos

vetoriais. (Vide Exercıcio 2.33.) Para cada i  = 1, . . . , k  , escreva Gi  =

F1 ⊕ · · · ⊕ Fi−1 ⊕ Fi+1 ⊕ · · · ⊕ Fk  e chame de Pi :  E→ E a projecao sobre

Fi, paralelamente a Gi. Prove que P1 + · · · + Pk  = I  e  PiP j  = 0  se  i = j.

7.12.   Sejam   P1, . . . , Pk :   E

 →  E   operadores lineares tais que

P1  +

 · · · + Pk   =   I  e   PiP j   =   0   se   i

 =   j. Prove que esses operadores

sao projecoes.

7.13.   Sejam  P, Q :  E → E  projecoes. Prove que as seguintes afirma-

coes sao equivalentes:

(a)   P + Q  e uma projecao;

(b)   PQ + QP = 0;

(c)   PQ =  QP  = 0.

[Para provar que (b) ⇒ (c), multiplique  a esquerda, e depois  a

direita, por P.]

7.14.   Prove que o produto de duas involucoes  e uma involucao se, e

somente se, elas comutam.

7.15.   Mostre que os seguintes operadores sao involucoes e

determine, em cada caso, a projecao correspondente na forma do

Teorema 7.3.

(a)   S : F (R2;R)→ F (R2;R), Sf  =  f∗, f∗(x, y) = f( y, x).

(b)   U : F (R+;R)→ F (R+;R), Uf  = f,  f(x) = f(1/x).

(c)   V :  Rn → Rn, V (x1, . . . , xn) = (−x1, . . . , −xk , xk +1, . . . , xn).

7.16.   Se o espaco vetorial   E  tem dimensao finita, prove que para

todo subespaco  F ⊂   E  existe (pelo menos) um subespaco  G ⊂   E  tal

que E  =  F ⊕ G.

Page 93: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 93/358

Page 94: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 94/358

8

A Matriz de uma

Transformacao Linear

 A matriz de uma transformac ˜ ao linear ´  e um objeto concreto, asso-

ciado a essa transformac ˜ ao na presenca de bases em seu dom´ ınio e

 seu contra-dom´ ınio. A matriz permite obter uma variedade ilimi-

tada de exemplos de transformac˜ oes lineares, bem como calcular es- pecificamente a imagem de um dado vetor por uma transformac ˜ ao.

 Nesta sec ˜ ao ser´ a estudada a relac ˜ ao entre uma transformac ˜ ao linear

 e sua matriz. Em particular, o produto de transformac˜ oes conduzir´ a

a uma prof´ ıcua noc ˜ ao de produto de matrizes. Veremos como se re-

lacionam as matrizes da mesma transformac ˜ ao tomadas em bases

diferentes e daremos uma demonstrac ˜ ao direta da igualdade entre o

 posto-linha e o posto-coluna de uma matriz.

 Vimos na Secao 4 que uma transformacao linear   A :  Rn →   R

fica inteiramente determinada pela matriz a = [aij ] ∈ M(m ×n), cujo

ij-esimo termo aij  e a i-esima coordenada do vetor A · e j ∈  Rm . Com

efeito, conhecendo essa matriz tem-se, para cada  v   = (x1, . . . , xn) ∈R

n, o valor A · v = ( y1, . . . , ym ) dado por

 yi  = ai1x1 + · · · + ainxn   (i =  1, . . . , m  ).

Estenderemos agora essas consideracoes a uma transformacao li-

near entre dois quaisquer espacos vetoriais de dimensao finita.Sejam  E,  F  espacos vetoriais de dimensao finita e A :  E → F uma

transformacao linear. Fixadas bases V   =   { v1, . . . , vn} ⊂   E   e W   =

Page 95: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 95/358

84   A Matriz de uma Transformacao Linear Secao 8

 { w1, . . . , wm } ⊂ F, para cada  j  = 1, . . . , n  o vetor Av j  se exprime como

combinacao linear dos vetores da base W :

Av j  = a1j w1 + a2j w2 + · · · + amj wm  =

m i=1

aij wi .

 Assim, a transformacao linear  A :  E →   F  juntamente com as bases

V ⊂   E   e W ⊂   F   determinam uma matriz   a   = [aij ] ∈   M(m  × n),

chamada a  matriz de  A  relativamente a essas bases (ou nas bases

V , W ).

Por definicao, a j-esima coluna da matriz a  e formada pelas coor-denadas de Av j  em relacao  a base W .

Embora isso nao seja mencionado explicitamente, convem salien-

tar que os vetores nas bases V   e W   sao dispostos numa ordem fixa,

sem o que a matriz a  nao ficaria bem definida.

No caso em que A :  E→ E  e um operador linear, a menos que seja

feita mencao explıcita em contrario, considera-se apenas uma base

V  = { v1, . . . , vn} ⊂ E  e a matriz a  = [aij ] do operador A  relativamente

a baseV 

 (ou na baseV 

)  e definida pelas n  igualdades

Av j  =

ni=1

aij vi   ( j =  1, . . . , n).

Neste caso,  a ∈   M(n × n)  e a matriz quadrada  n × n  cuja  j-esima

coluna  e formada pelas coordenadas do vetor

Av j =

 a1j v1 +

a2j v2 +

· · ·+

anj vn

na base V .Quando considerarmos uma transformacao linear  A :  Rn →   R

e dissermos apenas  a matriz de  A, estaremos significando a matriz

de A  relativamente  as bases canonicas de Rn e Rm . Caso utilizemos

outras bases, isto sera dito explicitamente.

Exemplo 8.1.   Consideremos um espaco vetorial   E, de dimensao

finita. Dado α  ∈ R, seja A :  E→ E o operador linear definido por Av =αv para todo v ∈ E. Relativamente a qualquer base V  = { v1, . . . , vn} ⊂E, a matriz  a  do operador  A  e sempre a mesma, com numeros  α  na

Page 96: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 96/358

Secao 8 A Matriz de uma Transformacao Linear   85

diagonal e zeros fora dela:

a =

α 0

  · · ·  0

0 α   · · ·   0...

  ...  ...

  ...

0 0   · · ·   α 

O operador   A   =   αI   e o que se chama uma  homotetia   de razao   α .

Estes sao os  unicos operadores cujas matrizes independem da base

dada. (Vide Exercıcio 8.35.)

Exemplo 8.2.   Seja  P: E →   E  a projecao sobre o subespaco  F1, pa-ralelamente ao subespaco  F2. Sejam ainda V 1 ⊂  F1  e V 2 ⊂  F2   bases

quaisquer desses subespacos. Entao V   = V 1 ∪ V 2  e uma base de  E,

relativamente  a qual a matriz  p  de  P  tem os  k  primeiros termos da

diagonal iguais a 1 (k   =   dim  F1) e todos os demais termos (sobre a

diagonal ou fora dela) iguais a zero. Analogamente, se  S :  E → E  e a

reflexao em torno de  F1  paralelamente a  F2, sua matriz  s  na base V tem os primeiros k  termos da diagonal iguais a 1, os restantes iguais

a −1 e todos os termos fora da diagonal iguais a zero.

 A fixacao das bases V ⊂   E   e W ⊂   F   determina portanto umatransformacao

ϕ : L(E; F)→M(m × n),

que faz corresponder a cada  A ∈ L(E; F)  sua matriz  a  nas bases V ,W . A transformacao   ϕ  e linear, ou seja, se   a, b ∈   M(m  × n)   sao

as matrizes de  A, B ∈ L(E; F)  respectivamente e  α ,   β  sao numeros

reais, entao a matriz de  A + B  e a + b, a matriz de  αA  e α a  e, mais

geralmente, a matriz de  αA + βB  e  α a + βb. Mais ainda,   ϕ  e um

isomorfismo: a bijetividade de  ϕ  e assegurada pelo Teorema 4.1.

Convem observar que, no caso de  E   =   Rn e  F   =   R

m , existe um

par natural de bases (canonicas) nestes espacos, de modo que o iso-

morfismo ϕ : L(Rn;Rm )→M(m × n) pode ser definido sem depender

de escolhas arbitrarias. A cada transformacao linear  A :  Rn →  Rm 

corresponde a matriz ϕ(A) = [aij ] cujo j-esimo vetor-coluna e A · e j  =

(a1j, . . . , amj).

Em particular, a cada funcional linear   f :  Rn

→   R  corresponde,

de modo natural, uma matriz   [a1, . . . , an ] ∈   M(1 × n)   ou, o que  eo mesmo, um vetor   (a1, . . . , an). As correspondencias entre a ma-

triz   [a1, . . . , an ]  e o funcional  f  tal que  f(ei) =  ai, e entre  f  e o vetor

Page 97: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 97/358

86   A Matriz de uma Transformacao Linear Secao 8

(a1, . . . , an), sao isomorfismos entre  M(1 × n),  (Rn)∗  e  Rn, determi-

nados pela base canonica de Rn.

Entre transformacoes lineares, alem das operacoes  A +  B  e  αA,existe tambem a multiplicacao  BA. O isomorfismo  ϕ faz correspon-

der ao produto  BA  o produto  ba das matrizes de  B  e de  A, segundo

definiremos a seguir.

Sejam  u  = (α 1, . . . , α  n)  e  v  = (β1, . . . , βn)  vetores em  Rn. O  pro-

duto interno de  u  por  v  e definido como o numero

 u, v = α 1β1 + · · · + α nβn .

 A nocao geral de produto interno, suas propriedades e aplicacoes

serao estudadas na Secao 10. Um caso particular sera usado agora

para introduzir o produto de duas matrizes.

Sejam   b   = [bij ] ∈   M(m  × n)   e   a   = [aij ] ∈   M(n × p)   matrizes

tais que o numero de colunas de  b  e igual ao numero de linhas de

a. O  produto  da matriz  b   pela matriz  a   (nesta ordem)  e a matriz

ba =  c  = [cij ] ∈ M(m × p), cujo ij-esimo elemento

cij  = bi1a1j + bi2a2j +

· · ·+ binanj  =

n

k =1

bik akj

e o produto interno do   i-esimo vetor-linha de  b   pelo   j-esimo vetor-

coluna de a.

Exemplo 8.3.   Uma transformacao linear   A :  Rn →   Rm  pode ser

interpretada como uma multiplicacao de matrizes: em vez de  A ∈L(Rn;Rm )  considera-se sua matriz  a   = [aij ] ∈   M(m × n). Em par-

ticular, os funcionais lineares   f :  Rn

→  R  sao substituıdos por ma-

trizes  1 × n, ou seja, por vetores-linha. Alem disso, os vetores  x   =(x1, . . . , xn) ∈  Rn e b  = (b1, . . . , bm )  passam a ser considerados como

matrizes n×1 e m ×1 respectivamente, ou seja, como vetores-coluna.

Entao a igualdade  Ax  =  b  passa a ser escrita sob a forma  ax   =  b,

isto e:  

a11   · · ·   a1n

a21   · · ·   a2n...

  ...  ...

am1

  · · ·  amn

x1

x2...

xn

=

b1

b2...

bm 

.

Dentro deste ponto de vista, a   ´ Algebra Linear se reduz ao calculo

de matrizes, o que traz vantagens sob o aspecto computacional mas

Page 98: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 98/358

Secao 8 A Matriz de uma Transformacao Linear   87

o custo e a perda da intuicao geometrica, da simplicidade conceitual,

alem da impossibilidade de se tratar o caso de dimensao infinita.

 A definicao do produto de matrizes foi formulada de modo a tor-nar verdadeiro o teorema seguinte. Nele, A :  E → F  e  B :  F → G  sao

transformacoes lineares, U   =  { u 1, . . . , u   p} ⊂  E, V   =  { v1, . . . , vn} ⊂ F  e

W   =  { w1, . . . , wm } ⊂ G sao bases,  a ∈ M(n × p)  e a matriz de  A  nas

bases U , V  e b ∈ M(m × n)  e a matriz de  B  nas bases V , W .Teorema 8.1.   A matriz de  BA :  E → G  nas bases U  , W   ´  e o produto

ba ∈ M(m × p) das matrizes b  e  a.

Demonstrac ˜ ao:  Por definicao, temos

Au  j  =

nk =1

akj vk    ( j =  1, . . . , p)

e

Bvk  =

m i=1

bik  wi   (k  =  1, . . . , n).

Seja   c   = [cij ] ∈   M(m  × p)   a matriz de   BA   nas bases U , W . Pordefinicao, para cada j  =  1, . . . , p, temos:

m i=1

cij wi  = BAu  j  = B

  nk =1

akj vk 

 =

nk =1

akjBvk  =

=

k =1

akj

  n

i=1

bik  wi

 =

n

i=1

  m 

k =1

bik akj

 wi .

Igualando os coeficientes de cada wi, concluımos que, para i=1,...,m 

e j  =  1, . . . , p, tem-se

cij  =

nk =1

bik akj ,

logo c  =  ba.

Resulta imediatamente do teorema acima e do isomorfismo

ϕ : L(E; F) →   M(m  × n)   que as regras operacionais do produto detransformacoes lineares se transferem diretamente para o produto

de matrizes. No que se segue, indicaremos com o sımbolo In a  matriz

Page 99: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 99/358

88   A Matriz de uma Transformacao Linear Secao 8

identidade n × n. Tem-se In   = [δij ], onde  δij  e o  s´ ımbolo de Kronec-

 ker:   δij   =   0   se   i =   j  e   δii   =   1. Quando nao houver ambig uidade,

escreveremos simplesmente I  em vez de In. As propriedades abaixo listadas se provam considerando, para

cada a ∈ M(m × n), a transformacao linear A :  Rn → Rm  cuja matriz

e  a  e aplicando a propriedade correspondente para transformacoes

lineares, ja provada anteriormente.

1)   (cb)a =  c(ba);

2)   c(a + b) = ca + cb; (b + c)a =  ba + ca;

3)   a · In  = a,   Im  · a =  a  se  a ∈ M(m × n);4)   b(α a) = α (ba).

Dada   a ∈   M(m  × n), diz-se que   x ∈   M(n × m )   e uma matriz

inversa a esquerda de  a  quando xa = In  e que  y ∈ M(n × m )  e uma

matriz inversa a direita de  a  quando ay  =  Im .

5)  Uma matriz m ×n possui inversa a esquerda se, e somente se, seus

vetores-coluna s ˜ ao L.I. e uma inversa a direita se, e somente se, esses

vetores-coluna geram Rm .

Uma matriz  a  chama-se  invert´ ıvel   quando  e quadrada e existe

uma matriz a−1, chamada a inversa de  a, tal que a−1a =  aa−1 = I.

6)   Se uma matriz  a  possui uma inversa a esquerda x  e uma inversa

a direita y  ent ˜ ao a  ´  e quadrada, ´  e invert´ ıvel e x  =  y  =  a−1.

7)   Uma matriz quadrada   a   admite uma inversa a esquerda se, e

 somente se, admite uma inversa a direita. Neste caso, a matriz a   ´  e

invert´ ıvel e cada uma dessas inversas laterais ´  e igual a a−1.

 A seguir, determinaremos como varia a matriz de uma transfor-macao linear A :  E→ F quando se mudam as bases em  E  e  F.

Sejam V   =   { v1, . . . , vn} ⊂   E   e W   =   { w1, . . . , wm } ⊂   F  bases, em

relacao  as quais a matriz da transformacao linear  A :  E →   F  e  a   =

[aij ] ∈ M(m × n). Isto significa que

Av j  =

i=1

aij wi   ( j =  1, . . . , n).

Tomando novas bases V ′  =  { v′1, . . . , v′n} ⊂ E e W ′   =  { w′1, . . . , w′

m } ⊂ F,

a transformacao linear  A  tem nova matriz  a′   = [a′ij ] ∈   M(m  × n),

Page 100: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 100/358

Secao 8 A Matriz de uma Transformacao Linear   89

definida por:

Av′ j  =

r=1

a′rj w

′r   ( j =  1, . . . , n).   (*)

Para obter a relacao entre as matrizes  a  e  a′, consideramos as

matrizes de passagem p  = [ pkj ] ∈ M(n × n) e  q  = [qir ] ∈ M(m × m ),

definidas pelas igualdades

 v′ j  =

nk =1

 pkj vk    e   w′r  =

m i=1

qir wi .

Por definicao, p  e a matriz de passagem da base V  para a base V ′  eq  e a matriz de passagem da base W  para a base W ′. Cada um dos

dois membros da igualdade (*) pode ser escrito separadamente, em

termos da base W , assim:

Av′ j  =

nk =1

 pkj Avk  =

nk =1

 pkj

m i=1

aik  wi

=

n

k =1

i=1

 pkjaik  wi

=

m i=1

  nk =1

aik  pkj

 wi ,

m r=1

a′rj w

′r  =

m r=1

a′rj

m i=1

qir wi

=

m r=1

m i=1

a′rjqir wi

=

m i=1

  m r=1

qira′rj

 wi .

Igualando os coeficientes de wi  vem:

n

k =1

aik 

 pkj

 =

r=1

qir

a′rj

,

isto e, ap  =  qa′.

Page 101: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 101/358

90   A Matriz de uma Transformacao Linear Secao 8

Observemos agora que toda matriz de passagem   e invertıvel.

Com efeito, se  p  e a matriz de passagem da base V  para a base V ′

entao p  e tambem a matriz (em relacao  a base V ) do operador linearP :  E → E, tal que  Pv j   =  v′ j   ( j   =   1, . . . , n), o qual  e invertıvel porque

leva uma base numa base.

 Assim, da igualdade  ap  =  qa′  podemos concluir

a′  = q−1 ap.

Esta e a f ormula que nos da a matriz a′ de  A  nas bases V ′, W ′ em

funcao da matriz  a de A  nas bases V , W . No caso particular de um

operador  A :  E → E e de suas matrizes  a, a′  relativas  as bases

 V ,

 V ′,

temos uma  unica matriz de passagem p, que nos da

a′  = p−1 ap.

 As duas matrizes quadradas   a   e   p−1 ap   dizem-se  semelhantes.

 Assim, as matrizes do mesmo operador em relacao a bases diferentes

sao semelhantes. Vale tambem a recıproca: se  a  e  a′   =   p−1 ap  sao

matrizes  n × n  semelhantes entao existe um operador  A :  Rn

→R

n

tal que   a   e   a′   sao matrizes de   A  relativamente a bases distintas

de Rn

.Com efeito, dadas   a   e   a′   =   p−1 ap, consideramos o operador

A :  Rn → Rn cuja matriz na base canonica E  de  Rn e a. Em seguida,

consideramos a base E ′ ⊂  Rn, obtida da base canonica pela matriz

de passagem p. Entao a′  e a matriz de  A  na base E ′.Para efeitos praticos e  util observar que se V  = { v1, . . . , vn}  e uma

base em  Rn entao a matriz de passagem da base canonica para V   e

aquela cujas n  colunas sao os vetores v1, . . . , vn.

Exemplo 8.4.   Seja  A :  R2 →   R

2

o operador linear que consiste nareflexao em torno da reta  y   =   ax. Como se viu no Exemplo 4.4, a

matriz de A  relativamente a base canonica de R2 e

a =

1−a2

1+a22a

1+a2

2a1+a2

a2−11+a2

.

Seja V   =   { v1, v2} ⊂   R2 a base formada pelos vetores   v1   = (1, a)   e

 v2  = (−a, 1). Para todo vetor v  = (x, y) ∈R

2

, temos

A(x, y) =

1 − a2

1 + a2 x +

  2a

1 + a2 y,

  2a

1 + a2 x +

 a2 − 1

1 + a2 y

,

Page 102: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 102/358

Secao 8 A Matriz de uma Transformacao Linear   91

logo Av1  = v1  e Av2  = − v2. (De resto, estas igualdades sao geometri-

camente obvias.) Portanto a matriz de A  na base V  e

a′  =

1 0

0   −1

.

 A matriz de passagem da base canonica de R2 para a base V  e

p =

1   −a

a 1

.

Segue-se que a′  = p

−1

· a · p. Neste caso, foi mais simples calcular  a′diretamente do que determinar p−1 e efetuar a multiplicacao p−1ap.

(Observacao:  p−1 =   11+a2

  1 a

−a 1

.)

Seja   A :  E →   F  uma transformacao linear entre espacos vetori-

ais de dimensao finita. O  posto  de  A  e a dimensao da sua imagem.

Evidentemente, dim I m (A) ≤   dim  F. Alem disso, pelo Teorema do

Nucleo e da Imagem, dim I m (A) ≤  dim  E. Segue-se que o posto de

A  nao excede dim  E  nem dim  F. O posto de  A  e igual  a dimensao

de  E  se, e somente se,  A  e injetiva. E  e igual  a dimensao de  F  se, esomente se, A  e sobrejetiva.

Se  a ∈ M(m × n)  e a matriz de  A  relativamente a um par qual-

quer de bases U ⊂  E, V ⊂  F, o posto de A  e a dimensao do subespaco

de  Rm  gerado pelas colunas de   a. Logo, o posto de   A  e o numero

maximo de colunas linearmente independentes da matriz a.

Esta observacao nos leva a definir o  posto segundo colunas   de

uma matriz a ∈ M(m × n) como o numero maximo de colunas line-

armente independentes em  a. Este numero  e igual  a dimensao dosubespaco vetorial de Rm  gerado pelos vetores-coluna de a. ( Espaco-

coluna  de  a.)

De maneira analoga, definimos o posto segundo linhas da matriz

a ∈  M(m × n) como o numero maximo de linhas L.I. em  a, ou seja,

como a dimensao do subespaco vetorial de  Rn gerado pelos vetores-

linha da matriz a. ( Espaco-linha de  a.)

Embora o espaco-coluna e o espaco-linha da matriz  a  sejam sub-

espacos de espacos vetoriais diferentes, vale o resultado seguinte:

Teorema 8.2.   Para toda matriz   a ∈   M(m  × n) , o posto segundo

linhas e o posto segundo colunas s˜ ao iguais.

Page 103: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 103/358

92   A Matriz de uma Transformacao Linear Secao 8

Demonstrac ˜ ao:   Seja   p   o posto segundo colunas da matriz   a   =

[aij ] ∈ M(m × n). Entao existem p  vetores wk  = (b1k , . . . , bmk ) ∈  Rm 

tais que cada uma das colunas   v j   = (a1j, . . . , amj),   1  ≤   j ≤   n,   ecombinacao linear de w1, . . . , w p:

 v j  =

 pk =1

ckj wk , 1 ≤ j ≤ n.   (*)

Tomando a  i-esima coordenada de cada um dos membros de (*), ve-

mos que

aij  =

 pk =1

ckjbik  =

 pk =1

bik ckj ,   (**)

para quaisquer i, j, com 1 ≤ i ≤ m  e  1 ≤ j ≤ n. Considerando agora

os vetores-linha  u i   = (ai1, . . . , ain)  da matriz  a, juntamente com os

vetores  z k   = (ck1, . . . , ckn),  1 ≤   k  ≤   p, observamos que a igualdade

entre o primeiro e o terceiro membro de (**) significa que, para todo

i =  1, . . . , m   tem-se

 u i  =

 pk =1

bik z k , 1 ≤ i ≤ m.

 Assim, os vetores-linha de  a  sao combinacoes lineares de  z 1, . . . , z   p,

portanto o posto de a segundo linhas e ≤ p. Aplicando este resultado

a matriz  aT  (chamada a   transposta  de  a), que tem como linhas as

colunas de  a  e como colunas as linhas de  a, concluımos que o posto

de   a   segundo colunas  e menor do que ou igual ao posto segundo

linhas. Isto conclui a demonstracao.

Podemos entao definir o   posto   de uma matriz como o numero

maximo de linhas, ou de colunas, L.I. dessa matriz. Mesmo quando

a matriz  e quadrada (em cujo caso suas linhas e colunas pertencem

ao mesmo espaco   Rn) os subespacos gerados pelas linhas e pelas

colunas, respectivamente, podem ser diferentes mas tem a mesma

dimensao.

Exemplo 8.5 (Uma aplicacao do Teorema 8.2.) Sejam  f1,...,fm :E →R   funcionais lineares nao-nulos no espaco vetorial  E, de dimensaon. Vimos no Exemplo 6.10 que, para cada i  =  1, . . . , m  , o nucleo de

fi  e o subespaco vetorial, de dimensao  n −  1,  Hi   =   { v ∈  E; fi( v) =  0}

Page 104: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 104/358

Page 105: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 105/358

94   A Matriz de uma Transformacao Linear Secao 8

Fixado o vetor   u   = (a,b,c), determine a matriz, relativamente  a

base canonica, do operador   A :  R3

→  R

3, definido por   A · v   =   v × u . Descreva geometricamente o nucleo desse operador e obtenha aequacao da sua imagem.

8.3.  Determine a matriz do operador de derivacao D : P n → P n  rela-

tivamente  a base {1,t,t2, . . . , tn}.

8.4.  Considere os subespacos vetoriais F  e  G  do espaco C∞(R), cujas

bases sao, respectivamente, os conjuntos {cos  x, sen  x} e

 {ex cos  x, ex sen  x, e2x cos  x, e2x sen  x, e3x cos  x, e3x sen  x}.

Determine a matriz do operador de derivacao em cada um desses

subespacos.

8.5.   Seja   A :   E →   F   uma transformacao linear de posto   r   entre

espacos vetoriais de dimensao finita. Prove que existem bases U   =

 { u 1, . . . , u  n} ⊂   E   e V   =   { v1, . . . , vm } ⊂   F, relativamente  as quais a

matriz a  = [aij ] de  A  tem  a11  = · · · =  arr  = 1  e os demais aij  = 0.

8.6.  Ache o valor de x para o qual operador  P :  R3 → R3, cuja matriz

na base canonica e 1

2   − 12

12

−1 0 1

− 12   − 1

2   x

seja uma projecao.

8.7.   Qual  e a matriz, na base canonica, do operador A :  R2

→R

2 tal

que A(2, 3) = (2, 3) e  A(−3, 2) = 0 ?

8.8.  Calcule a n-esima potencia da matriz

1 a

0 1

.

8.9.   Seja   E   =   F1 ⊕  F2 . Dado o operador linear   A :  E →   E, defina

transformacoes lineares  A11 :  F1 → F1 ,  A21 :  F1 → F2 ,  A12 :  F2 → F1  e

A22 :  F2 → F2  tais que, para todo v  =  v1 + v2 ∈ E, com v1 ∈ F1 e v2 ∈ F2 ,

seja

Av = (A11 + A21) v1 + (A12 + A22) v2 .

Diz-se entao que A11   A12

A21   A22

Page 106: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 106/358

Secao 8 A Matriz de uma Transformacao Linear   95

e a matriz do operador A  relativamente  a decomposicao E  = F1 ⊕ F2.

Dado outro operador linear   B :  E

 →  E, determine a matriz de   BA

relativamente  a mesma decomposicao.8.10.   Com a notacao do exercıcio anterior, sejam  a  e  b  as matrizes

de A e  B respectivamente, em relacao a uma base U 1 ∪ U 2 ⊂ E, onde

 U 1 ⊂ F1  e U 2 ⊂ F2  sao bases. Mostre que se

a =

a11   a12

a21   a22

  e   b =

b11   b12

b21   b22

entao

ba =

b11a11 + b12a21   b11a12 + b12a22

b21a11 + b22a21   b21a12 + b22a22

(Multiplicacao por blocos de matrizes.)

8.11.   Seja  a   uma matriz  5 × 5  cujos elementos sobre a diagonal e

abaixo dela sao iguais a zero. Sem fazer nenhum calculo, conclua

que a5 = 0.

8.12. Sejam a  uma matriz m 

×n, com m < n, e b  uma matriz n

×m .

Podem ab  e  ba  ser ambas invertıveis? Uma delas? Qual? Quando?

8.13.  Assinale verdadeiro (V) ou falso (F):

( ) Se  A, B :  E → E  sao operadores de mesmo posto  r  entao o pro-

duto BA  tem posto r.

( ) Se as matrizes a, b ∈   M(m  × n)   tem o mesmo espaco-coluna

entao elas sao matrizes da mesma transformacao linear.

( ) A matriz do operador linear   A :  E→E   na base   { v1, v2, v3,...,vn}

difere da matriz do mesmo operador na base  { v2, v1, v3, . . . , vn}

pela permutacao das duas primeiras colunas.

( ) Sejam a ∈ M(2 × 3) e  b ∈ M(3 × 2). Se ab  =  I2  entao ba  = I3 .

( ) Se a matriz  a′  se obtem da matriz  a  por uma permutacao de

suas linhas entao a′  e a  tem o mesmo posto.

8.14.   Seguindo a orientacao ali fornecida, prove as propriedades 1)

a 7) da multiplicacao de matrizes listadas apos a demonstracao do

Page 107: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 107/358

96   A Matriz de uma Transformacao Linear Secao 8

Teorema 8.1. Em particular, prove que se  a  e  b  sao matrizes  n × n

com   ba   =   In   entao se tem tambem   ab   =   In . (Cfr. Corolario do

Teorema 6.7.)8.15.   Sejam dados os vetores   v1, . . . , vn ∈   Rn. Se, para cada   j   =

1 , . . . , n, o j-esimo vetor da base canonica de Rn se exprime como

e j  = x1j v1 + · · · + xnj vn ,

prove que   x   = [xij ]  e a inversa da matriz que tem   v1, . . . , vn   como

vetores-coluna.

8.16.  Determine a inversa da matriz Ir   0

a Is  onde  a

 ∈  M(s

×r)  e

0 ∈ M(r × s).

8.17.   Sejam  a ∈  M(m × m )  uma matriz de posto  r  e  b ∈  M(n × n)

uma matriz de posto s. Prove que a matriz  (m + n) × (m + n) abaixo

tem posto r + s: a 0

0 b

O sımbolo 0  na primeira linha significa a matriz nula  m × n e, na

segunda linha, 0 ∈ M(n × m ).8.18. Dadas a ∈ M(m × m ), b ∈ M(n× n) e  c ∈ M(m ×n), com posto

de a  =  r  e posto de b  =  s, que postos pode ter a matriz abaixo?a c

0 b

8.19.   Seja a b

c d, com  b =  0, a matriz de um operador  A :  R2

→R

2

na base canonica. Ache uma base de  R2 na qual a matriz de  A  seja  0 1

bc − ad a + d

.

8.20.   Determine a matriz da projecao  P :  R2 →   R2,   P(x, y) = (x, 0)

relativamente  a base { u, v} ⊂ R2, onde u  = (1, 1) e  v  = (1, 2).

8.21.  Sabendo que a matriz do operador  A :  R3

→R

3 relativamente

a base { u, v, w} ⊂ R3, onde u  = (1,1,1), v  = (1,2,1), w  = (1,1,3),  e

1

2

3 1 30 2 0

−1   −1   −1

  ,

Page 108: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 108/358

Secao 8 A Matriz de uma Transformacao Linear   97

determine a matriz de A  relativamente  a base canonica de R3.

8.22.   Obtenha bases

 U ⊂  R

2 e

 V ⊂  R

3 relativamente  as quais a

matriz da transformacao linear A :  R2 → R3, dada por A(x, y) = (2x+ y, 3x − 2y,x + 3y), tem as linhas (1, 0), (0, 1) e  (0, 0).

8.23. Suponha que os operadores lineares  A, B :  E→ E tem a mesma

matriz  a  = [aij ]  em relacao a duas bases U , V ⊂  E. Prove que existe

um isomorfismo C :  E→ E tal que B  =  CAC−1.

8.24.  Seja A :  R2

→R

2 o operador cuja matriz na base canonica e

 0 1−1 0

.

Prove que se

a =

a11   a12

a21   a22

e a matriz de   A   relativamente a uma base qualquer de   R2 entao

a12 =   0   ou   a21 =   0. (Noutras palavras, nenhuma matriz de   A   ediagonal.)

8.25.  Considere as transformacoes lineares

A :  Rn+1 → P n, A(α o, α 1, . . . , α  n) = α o + α 1x + · · · + α nxn

B :

 P n → R

n+1, B.p(x) = ( p(0), p(1), . . . , p(n)).

Determine a matriz de  BA :  Rn+1 → Rn+1 (na base canonica) e prove

que e uma matriz invertıvel.

8.26.   Seja a a matriz n × n cujas linhas sao os vetores v1  = (1 , 2 , . . .

. . . , n), v2  = (n + 1, n + 2 , . . . , 2 n), etc. Prove que o posto de  a  e igual

a 2 e que o subespaco de  Rn gerado por suas linhas coincide com o

subespaco gerado por suas colunas.

8.27.   Prove que uma matriz  c   = [cij ] ∈   M(m  × n)  tem posto 1 se,e somente se, existem vetores nao-nulos   a   = (a1, . . . , am ) ∈   Rm  e

b = (b1, . . . , bn) ∈ Rn tais que cij  = ai.b j  para todo i  e todo j.

Page 109: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 109/358

98   A Matriz de uma Transformacao Linear Secao 8

8.28.  Assinale V(erdadeiro) ou F(also):

( ) Toda matriz e soma de matrizes de posto 1.

( ) O conjunto das matrizes de posto k  em M(m ×n)  e um subespa-

co vetorial.

( ) A matriz x1   x2   . . . xn

 y1   y2   . . . yn

tem posto 2  se, e somente se, existem i, j  tais que xi y j = x j yi.

( ) Se A :  E→ E  e um operador linear de posto 1 entao E  = N (A) ⊕ I m (A).

8.29.  Prove que uma matriz  m × n  tem posto  r  se, e somente se,  e

possıvel selecionar  r   linhas e  r   colunas (porem nao mais) de modo

que os elementos comuns a elas formem uma matriz invertıvel r × r.

[Sugestao: reduza ao caso r  =  min {m, n} e aplique o Teorema 8.2.]

8.30.   Sejam f1, . . . , fm :  E → R funcionais lineares no espaco vetorial

E   de dimensao   n. Suponha que estes funcionais gerem em   E∗   =L(E;R)  uma variedade afim de dimensao  r. Prove que o conjunto  F,

formado pelos vetores v ∈ E tais que

f1( v) = f2( v) = · · · = fm ( v),

e um subespaco vetorial de dimensao n − r + 1.

8.31.   Uma matriz  n × n  chama-se um  quadrado m´ agico  quando a

soma dos elementos de cada uma de suas linhas, de cada coluna,

da diagonal principal e da outra diagonal (ao todo   2n  + 2   somas)sao iguais. Prove que, se n≥3, o conjunto Qn dos quadrados magicos

n×n e um subespaco vetorial de dimensao n2−2n do espaco M(n×n).

[Sugestao: use os Exercıcios 8.30, 3.32 e 3.33.]

8.32.  Em conformidade com o exercıcio anterior, determine os 8 ele-

mentos restantes da matriz  4 ×  4  abaixo, de modo a obter um qua-

drado magico

1 2 3

  ∗ 4 5 6   ∗7 8   ∗ ∗∗ ∗ ∗ ∗

Page 110: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 110/358

Secao 8 A Matriz de uma Transformacao Linear   99

8.33.  Calcule o posto da matriz

1 2 3 4 5 6

2 1 0

e mostre que o subespaco gerado por suas linhas e diferente daquele

gerado por suas colunas.

8.34.   Obtenha numeros   a,   b,   c   tais que   ax  +  by  + cz   =   0   seja a

equacao do plano gerado pelas colunas da matriz

1 1 1

1 2 3

2 3 4

  .

8.35.   Seja   A :  E →   E  um operador linear no espaco vetorial  E, de

dimensao finita. Supondo que   A   nao seja um multiplo do opera-

dor identidade, mostre que existem bases de  E  do tipo   { v, Av, . . .}  e

 { v, 2Av, . . .}. Relativamente a estas bases, as matrizes de  A  sao di-ferentes. Conclua que os operadores   αI   sao os  unicos cuja matriz

nao depende da base escolhida e que as matrizes do tipo  α In  sao as

unicas que comutam com todas as matrizes invertıveis n × n.

8.36. Seja a uma matriz triangular (isto e, aij  = 0  se i < j) n×n cujos

elementos da diagonal sao todos iguais a zero. Mostre que an =  0.

[Sugestao: considere o operador   A :  Rn

→  R

n cuja matriz na base

canonica e a.]

8.37. O traco de uma matriz quadrada a  = [aij ] ∈ M(n × n)  e a soma

tr  a   =   a11  + · · ·  + ann   dos elementos da sua diagonal. Prove que

tr (ab) = tr (ba) e conclua que todas as matrizes do mesmo operador

A :  E → E, num espaco  E  de dimensao finita, tem o mesmo traco, o

qual se indica com a notacao tr  A.

8.38. Prove que o traco de um operador linear idempotente P :  E

→E

e um numero inteiro, igual ao seu posto.

8.39.   Seja  c   = [cij ] ∈   M(n × n)  uma matriz de posto 1. Prove que

c2 = (tr  c).c e, mais geralmente, para todo  n > 1, cn = (tr  c)n−1c.

Page 111: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 111/358

100   A Matriz de uma Transformacao Linear Secao 8

8.40. Sejam U , V  e W  bases finitas do espaco vetorial  E. Se p  e  q  sao

respectivamente as matrizes de passagem de U   para V   e de V   para

W , prove que as matrizes de passagem de U   para W   e de V   para U sao respectivamente pq  e  p−1.

8.41.   Prove que o posto da transformacao linear BA  e menor do que

ou igual ao posto de A  e ao posto de B. De um exemplo em que posto

de A  =  posto de B > posto de BA.

8.42.   Dada a transformacao linear  A :  E

 →  F, entre espacos de di-

mensao finita, sejam   E1  ⊂   E   e   F1  ⊂   F   subespacos tais que   E   =

 N (A)

 ⊕ E1   e   F   =

 I m (A)

 ⊕ F1. Tome bases

 U ⊂  E   e

 V ⊂  F   cujos

primeiros elementos formam respectivamente uma base de N (A)  e

uma base de I m (A). Que forma tem a matriz de  A relativamente a

 U  e V ?8.43.   Sejam   A :  E →   F   e   B :  F →   G   transformacoes lineares entre

espacos vetoriais de dimensao finita. Se  B  e injetiva, prove que o

posto de  BA  e igual ao posto de  A. Que condicao sobre  A  assegura

que o posto de BA  seja igual ao de  B?

8.44.   Se  E  tem dimensao finita, prove que nao existem operadoreslineares  A, B :  E → E tais que AB  − BA  = I ou tais que AB  − BA  seja

uma projecao. (Use o traco. Compare com o Exercıcio 5.13.)

8.45.   Sejam V , V ′ ⊂  E, e W , W ′ ⊂  F  bases finitas, e  p, q as matrizes

de passagem de V   para V ′  e de W   para W ′   respectivamente. Dada

a transformacao linear  A :  E → F, sejam  a  e  a ′  respectivamente as

matrizes de A  relativamente as bases V , W  e V ′, W ′. Mostre que p  e

a matriz de  IE  nas bases

 V ′,

V  e q  e a matriz de  IF  nas bases

 W ′,

W .

Use as igualdades   A   =   AIE   e   A   =   IFA   para provar que   ap   e   qa ′sao iguais  a matriz de A  nas bases V ′, W . Obtenha assim uma nova

deducao da f ormula a ′  = q−1ap.

8.46.   Prove que uma matriz quadrada de posto 1 e idempotente se,

e somente se, seu traco e igual a 1  .

Page 112: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 112/358

9

Eliminacao

 Esta sec ˜ ao trata de aspectos computacionais dos assuntos tratados

at´  e aqui. Do ponto de vista do encadeamento l´ ogico, sua leitura n˜ ao

´  e necess´ aria para o entendimento das sec˜ oes seguintes. (Salvo no que

tange a Sec ˜ ao 17 que, por sua vez, quase nada influi nas que lhe se- guem.) Entretanto seu valor educativo ´  e inestim ´ avel pois exibe um

 processo simples e bem sucedido para responder a perguntas natu-

rais sobre subespacos, transformac˜ oes lineares, sistemas de equac˜ oes

 e matrizes.

Estudaremos a seguir algumas questoes de natureza pratica que

serao resolvidas com o uso do tradicional e eficiente metodo de eli-

minacao.

9.A. Dimens ˜ ao do subespaco gerado por m  vetores

 A primeira questao que abordaremos  e o problema de determinar

a dimensao do subespaco gerado por  m  vetores v1, . . . , vm  no espaco

vetorial E  que, por simplicidade, (porem sem perda de generalidade)

suporemos ser o espaco euclidiano  Rn. Noutras palavras, queremos

achar o numero  r tal que  r  dos vetores dados sao linearmente inde-

pendentes porem os demais sao combinacoes lineares deles.O princıpio basico a ser utilizado  e a observacao  obvia de que

se um dos vetores dados, digamos   v1, tem uma de suas coordena-

Page 113: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 113/358

102   Eliminacao Secao 9

das, por exemplo a   j-esima, diferente de zero mas todos os demais

vetores   v2, . . . , vm   tem a   j-esima coordenada nula entao   v1   nao   e

combinacao linear de  v2, . . . , vm . Resulta entao do Teorema 3.2 (oumelhor, da observacao logo apos) que se cada um dos vetores nao-

nulos  w1, . . . , wr  tem uma coordenada diferente de zero e a mesma

coordenada  e zero em todos os vetores seguintes a ele nesta lista

entao { w1, . . . , wr}  e L.I. .

Exemplo 9.1.   Sejam   v1   = (0,1,2,3,4),   v2   = (0,0,1,2,3), e   v3   =

(0,0,0,0,1). Neste caso, a segunda coordenada de   v1   e 1 mas as

segundas coordenadas de v2 e  v3 sao nulas. A terceira coordenada de

 v2  e 1 mas a terceira coordenada de  v3  e zero. Logo { v1, v2, v3} ⊂  R5

eum conjunto L.I. .

O criterio acima enunciado, que garante a independencia linear

dos vetores  w1, . . . , wr ∈  Rn, pode ser refraseado assim: a primeira

coordenada nao-nula de cada wi tem ındice menor do que a primeira

coordenada nao-nula dos vetores subsequentes wi+1, . . . , wr.

Se, para cada   i   =   1, . . . , r, escrevermos   wi   = (ai1, . . . , ain), te-

remos uma matriz   a   = [aij ] ∈   M(r × n), cujos   r  vetores-linha sao

 w1

, . . . , wr. Diremos que essa matriz e escalonada quando o primeiro

elemento nao-nulo de cada uma de suas linhas esta  a esquerda do

primeiro elemento nao-nulo de cada uma das linhas subsequentes e,

alem disso, as linhas nulas (se houver) estao abaixo das demais.

Com esta definicao, podemos dizer que as linhas nao-nulas de

uma matriz escalonada sao vetores linearmente independentes, ou

seja, uma matriz escalonada  r × n tem posto  r se suas linhas forem

todas diferentes de zero.

Exemplo 9.2.  As matrizes abaixo sao escalonadas:1 3 7 2

0 2 5 1

0 0 0 3

0 1 2 3 1

0 0 4 5 2

0 0 0 6 3

0 0 0 0 0

.

 Ambas tem posto 3.

Dados os vetores v1, . . . , vm  ∈  Rn, vamos altera-los passo a passo

de tal modo que, em cada etapa, os vetores obtidos geram o mesmosubespaco que os da etapa anterior e, no final, os vetores resultantes

formam as linhas de uma matriz escalonada. Os nao-nulos dentre

Page 114: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 114/358

Secao 9 Eliminacao   103

eles formarao uma base do subespaco gerado pelos vetores original-

mente dados.

 As seguintes modificacoes, chamadas   operac˜ oes elementares, le-vam os vetores v1, . . . , vm  ∈ Rn em vetores v′1, . . . , v′m  ∈ Rn que geram

o mesmo subespaco:  S( v′1, . . . , v′m ) = S( v1, . . . , vm ).

(1) Trocar a posicao de dois vetores  vi,  v j  (i < j) na lista dada. Esta

operacao e esquematizada como

( v1, . . . , vi, . . . , v j, . . . , vm )

→( v1, . . . , v j, . . . , vi, . . . , vm ).

(2) Somar a um dos vetores um multiplo de outro vetor da lista, ou

seja, substituir v j  por v′ j  = v j + αvi, i = j.

Para justificar a operacao (2), sejam V   = ( v1, . . . , vm )   e V ′   =

( v1, . . . , v′ j, . . . , vm ). Evidentemente S(V ′) ⊂   S(V ). Alem disso, como

 v j  = v′ j − αvi, segue-se que S(V ) ⊂ S(V ′). Logo V  e V ′  geram o mesmo

subespaco:  S(V ) = S(V ′).

Em termos da matriz cujas linhas sao os vetores dados, estas

operacoes elementares se exprimem assim:

(1) Trocar a posicao de duas linhas;

(2) Somar a uma linha um multiplo de outra linha.

Portanto, o subespaco gerado pelas linhas (ou seja, o espaco-

linha) de uma matriz nao se altera quando essas duas operacoes

elementares sao aplicadas a essa matriz.

Descreveremos a seguir o processo de   eliminac ˜ ao   (ou   escalona-

mento), o qual, mediante aplicacoes sucessivas das duas operacoes

elementares  as linhas de uma matriz, produz uma matriz escalo-

nada. O procedimento  e o seguinte:

(a) Se a11 =  0, o processo comeca deixando a primeira linha intacta

e somando a cada linha  Li, com i ≥ 2, a primeira linha multiplicada

por  −ai1/a11. Com isto se obtem uma matriz cuja primeira coluna  e

(a11, 0 , . . . , 0).

(b) Se a11  = 0, uma troca de linhas fornece uma matriz com  a11 = 0,

desde que a primeira coluna nao seja nula. Se, porem, todos os ele-

mentos da primeira coluna sao iguais a zero, passa-se para a se-gunda coluna ou, mais geralmente, para a coluna mais proxima,  a

direita da primeira, onde haja algum elemento nao-nulo e opera-se

Page 115: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 115/358

Page 116: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 116/358

Secao 9 Eliminacao   105

tem esses vetores como linhas a fim de obter uma matriz escalonada

0 1 2 3

2 1 3 03 4 2 0

 4 2 0 1

L2↔L1−→ 2 1 3 0

0 1 2 33 4 2 0

 4 2 0 1

L3− 32L1−→L4−2L1

2 1 3 0

0 1 2 30   5

2   − 52   0

0 0   −6 1

L3− 52

L2−→

2 1 3 0

0 1 2 3

0 0   − 152   − 15

2

0 0   −6 1

L4− 4

5L3−→

2 1 3 0

0 1 2 3

0 0   − 152   − 15

2

0 0 0 7

.

Concluımos que os quatro vetores dados sao L.I., portanto consti-

tuem uma base de   R 4. Alem disso, vemos que os vetores   w1   =

(2,1,3,0),   w2   = (0,1,2,3),   w3   = (0,0, − 152 , − 15

2 )   e   w 4   = (0,0,0,7)

tambem formam uma base de R 4.

9.B. Calculo do posto de uma transformac ˜ ao linear

 A resposta  a questao 9.A permite determinar o posto de uma trans-

formacao linear   A :  Rn →   Rm  e ate mesmo uma base para

 I m (A).

Uma tal base pode ser formada pelas colunas nao-nulas de uma ma-triz escalonada, obtida da matriz de   A  por meio de operacoes ele-

mentares efetuadas sobre suas  colunas. Ou entao podemos, como

acima, operar sobre as linhas da transposta da matriz de  A. (Pois

as linhas da transposta sao as colunas da matriz dada.) Nao havera

confusao se lembrarmos que a base de I m (A)  e formada por vetores

de Rm , nao de  Rn! Quando m  = n,  e preciso ter cuidado, pois a ima-

gem de  A  e gerada pelos vetores-coluna de sua matriz e nao pelos

vetores-linha.Exemplo 9.5.   Obter uma base para a imagem da transformacao

linear A :  R3 → R 4, definida por

A(x,y,z ) = (x + 5y + 9z,2x + 6y + 10z, 3x + 7y + 11z, 4x + 8y + 12z ).

Temos   Ae1   = (1,2,3,4),   Ae2   = (5,6,7,8)   e   Ae3   = (9,10,11,12), de

modo que a imagem de A  e gerada pelos vetores v1, v2, v3 do Exemplo

9.3. Resulta entao daquele exemplo que  A  tem posto 2 e os vetores

 w1   = (1,2,3,4),  w2   = (0, − 4, −8, −12)   formam uma base de I m (A).Note que a matriz que ocorre no Exemplo 9.3 nao  e a matriz de A  e

sim a sua transposta.

Page 117: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 117/358

106   Eliminacao Secao 9

9.C. Resoluc ˜ ao de sistemas lineares

O metodo de eliminacao, embora simples e ing enuo,   e a maneira

mais eficaz de resolver um sistema de  m  equacoes lineares, com  nincognitas, apresentado sob a forma matricial   ax   =   b, onde   a ∈M(m × n), x ∈ M(n × 1) e  b ∈ M(m × 1).

Resulta das nocoes gerais ate aqui estudadas que o sistema ax  =

b  possui solucao se, e somente se, o vetor  b ∈  Rm , correspondente  a

matriz  b, pertence  a imagem da transformacao linear  A :  Rn → Rm 

cuja matriz (nas bases canonicas de Rn e Rm )  e a.

Dito de outra maneira, o sistema   ax   =   b  possui solucao se, e

somente se, o vetor   b ∈   Rm  (correspondente  a matriz   b) pertenceao subespaco gerado pelas colunas de  a. Isto equivale a dizer que a

matriz aumentada [a; b ] ∈ M(m × (n + 1)) tem o mesmo posto que a

matriz a  do sistema.

Uma afirmacao mais completa  e a seguinte: o sistema  Ax   =   b

nao possui solucao quando   b /∈ I m (A), possui uma  unica solucao

quando  b ∈ I m (A) e  A  e injetiva, e possui infinitas solucoes quando

b ∈ I m (A) e  A  nao e injetiva. (Vide Teorema 6.4.)

Em termos matriciais, o sistema   ax   =   b, com   a ∈   M(m  ×  n),x ∈ M(n × 1) e  b ∈ M(m × 1), admite as seguintes alternativas:

(1) Nao possui solucao quando o posto da matriz aumentada  [a; b ]  e

maior do que o posto de a;

(2) Possui uma  unica solucao quando a matriz  a  e a matriz aumen-

tada [a; b ] tem o mesmo posto, igual ao numero n  de incognitas;

(3) possui infinitas solucoes quando se tem posto   [a; b ] =  posto  a  =

r < n. Neste caso, o conjunto das solucoes  e uma variedade afim de

dimensao n − r.O que acabamos de dizer  e mais ou menos um resumo do que

 ja vimos antes. Trata-se de uma discussao esclarecedora do ponto

de vista teorico mas que nao ensina como reconhecer, na pratica,

em qual dos casos se enquadra um sistema dado e muito menos

como obter suas solucoes, caso existam. Isto se faz com o metodo

de eliminacao, escalonando a matriz aumentada do sistema.

O processo de eliminacao se baseia na observacao de que ao efe-

tuar uma operacao elementar sobre as linhas da matriz aumentada[a; b ] obtem-se uma matriz  [a′; b′ ]  que  e a matriz aumentada de um

sistema  a′x  = b′, equivalente ao sistema original  ax = b. (Dois sis-

Page 118: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 118/358

Secao 9 Eliminacao   107

temas se dizem  equivalentes quando possuem o mesmo conjunto de

solucoes.)

No final do processo, obtem-se um sistema a′x  = b′, equivalenteao sistema proposto  ax   =   b, no qual a matriz   [a′; b′ ]  e escalonada.

(Isto e o mesmo que dizer que  a′  e escalonada.) O sistema a′x =  b′  efacilmente resolvido de baixo para cima: acha-se primeiro o valor da

ultima incognita, substituindo-a por esse valor na equacao anterior

e assim por diante.

 Vejamos alguns exemplos.

Exemplo 9.6.  Consideremos o sistema

 y   +   2z    +   3t   =   1

2x   +   y   +   3z    =   1

3x   +   4y   +   2z    =   1

 4x   +   2y   +   t   =   1

O escalonamento da matriz aumentada  e feito abaixo:

0 1 2 3 1

2 1 3 0 13 4 2 0 1

 4 2 0 1 1

−→ 2 1 3 0 1

0 1 2 3 13 4 2 0 1

 4 2 0 1 1

−→

−→

2 1 3 0 1

0 1 2 3 1

0   52   − 5

2   0   − 12

0 0   −6 1   −1

−→

2 1 3 0 1

0 1 2 3 1

0 0   − 152   − 15

2   −3

0 0 0 7   75

.

Obtem-se assim a matriz aumentada do sistema

2x   +   y   +   3z    =   1

 y   +   2z    +   3t   =   1

−   152 z    −   15

2 t   = −3

7t   =   75 .

Resolvendo este sistema de baixo para cima, vem:   t   =   15 ,   z   =   1

5 ,

 y =  0, x  =   15 . Esta e a  unica solucao do sistema dado. Como a matrizdo sistema tem posto 4, a solucao existiria e seria  unica, fosse qual

fosse o segundo membro.

Page 119: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 119/358

108   Eliminacao Secao 9

Exemplo 9.7.  Seja o sistema

x   +   2y   −   3z    =   4

2x   +   3y   +   4z    =   5

 4x   +   7y   −   2z    =   12.

O escalonamento da sua matriz aumentada  e o seguinte:

1 2   −3 4

2 3 4 5

 4 7   −2 12

 −

1 2   −3 4

0   −1 10   −3

0   −1 10   − 4

 −

1 2   −3 4

0   −1 10   −3

0 0 0   −1

  .

 Vemos portanto que o sistema dado  e equivalente a:

x   +   2y   −   3z    =   4

−   y   +   10z    = −3

0x   +   0y   +   0z    = −1,

o qual  e obviamente impossıvel. O sistema dado nao tem solucao.

[Poderıamos ter chegado  a mesma conclusao observando, na forma

do Exemplo 9.5, que a imagem do operador  A :  R3 →   R

3

, cuja ma-triz tem colunas  v1   = (1,2,4),  v2   = (2,3,7)  e  v3   = (−3,4, −2),  e um

subespaco de dimensao 2 em  R3 do qual os vetores  w1   = (1,2,4)  e

 w2   = (0,1,1)   formam uma base e que o vetor   b   = ( 4, 5, 12)   certa-

mente nao e combinacao linear de w1  e w2.]

Exemplo 9.8.  Seja o sistema

x   +   2y   +   3z    +   4t   =   1

5x   +   6y   +   7z    +   8t   =   29x   +   10y   +   11z    +   12t   =   3

O escalonamento da sua matriz aumentada segue o esquema:1 2 3 4 1

5 6 7 8 2

9 10 11 12 3

  −→

1 2 3 4 1

0   − 4   −8   −12   −3

0   −8   −16   −24   −6

  −→

−→ 1 2 3 4 10   − 4   −8   −12   −3

0 0 0 0 0

  .

Page 120: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 120/358

Secao 9 Eliminacao   109

 A  ultima matriz obtida e a matriz aumentada do sistema:

x   +   2y   +   3z    +   4t   =   1

−   4y   −   8z    −   12t   = −3

oux   +   2y   = −3z    −   4t   +   1

−   4y   =   8z    +   12t   −   3.

Este sistema pode ser resolvido de baixo para cima (esquecendo que

z  e  t  sao incognitas) e nos da a solucao:

 y = −2z − 3t + 3

 4

, x =  z + 2t − 1

2

.   (*)

O sistema dado possui portanto uma infinidade de solucoes, que po-

dem ser obtidas atribuindo-se valores arbitrarios a   z   e   t   e calcu-

lando  x  e  y  em funcao delas por meio destas duas  ultimas igualda-

des. Observe que as igualdades (*) sao as equacoes da variedade

afim de dimensao 2 no espaco  R 4, formada por todas as solucoes do

sistema dado. Escrevendo o sistema original sob a forma  Av   =   b,

onde A :  R 4

→R

3 e a transformacao linear cuja matriz tem as linhas

(1,2,3,4), (5,6,7,8), (9,10,11,12) e   b   = (1,2,3), esta variedade afim,formada por todos os vetores

 v = (z + 2t − 1

2, −2z − 3t +

 3

 4, z , t) ∈ R

 4,

onde   z ,   t   sao numeros reais arbitrarios,   e o conjunto de todos os

vetores v ∈ R 4 tais que Av  =  b.

Observac ˜ ao:   O conjunto   F   =   {(z  +  2t, −2z  −  3t,z,t)  ∈   R 4; z, t  ∈R}  e um subespaco vetorial de  R 4, nucleo da transformacao linear

A :  R 4 → R3 acima considerada. Uma base de F  e formada pelos ve-

tores w1  = (1, −2,1,0) e w2  = (2, −3,0,1), obtidos fazendo z  =  1, t  =  0

e depois z  = 0, t  = 1 na expressao dos vetores de F. De um modo ge-

ral, para obter uma base para o nucleo de um operador A :  Rn → Rm 

o que se tem a fazer e resolver por escalonamento o sistema  Ax  = 0.

Exemplo 9.9.  Achar uma base para o nucleo da transformacao li-

near A :  R5

→R

3 cuja matriz (nas bases canonicas)  e

a =

1 2 3 1 23 4 5 3 4

1 0   −1 1 0

  .

Page 121: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 121/358

110   Eliminacao Secao 9

O nucleo de A  e o conjunto das solucoes  x  = (x1, x2, x3, x 4, x5)  do sis-

tema linear homog eneo

x1   +   2x2   +   3x3   +   x 4   +   2x5   = 0

3x1   +   4x2   +   5x3   +   3x 4   +   4x5   = 0

x1   −   x3   +   x 4   = 0.

Para sistemas homog eneos, nao ha necessidade de considerar a ma-

triz aumentada. O escalonamento da matriz   a   e feito segundo o

esquema

1 2 3 1 2

3 4 5 3 4

1 0   −1 1 0

 −→

1 2 3 1 2

0   −2   − 4 0   −2

0   −2   − 4 0   −2

 −→

1 2 3 1 2

0   −2   − 4 0   −2

0 0 0 0 0

 .

Portanto o sistema homog eneo inicial e equivalente ao sistema esca-

lonado

x1   +   2x2   +   3x3   +   x 4   +   2x5   = 0

−   2x2   −   4x3   −   2x5   = 0,

ou seja

x1   +   2x2   = −3x3   −   x 4   −   2x5

−   2x2   =   4x3   +   2x5.

Resolvendo o  ultimo (considerando x3, x 4  e x5  como conhecidos), vem

x2   = −2x3  − x5   e  x1   =   x3  − x 4. Concluımos entao que o nucleo da

transformacao linear   A   e formado por todos os vetores   x   = (x3  −

x 4, −2x3  − x5, x3, x 4, x5), onde os numeros   x3,   x 4   e   x5   sao escolhidos

arbitrariamente. Uma base do nucleo  e obtida quando se faz suces-

sivamente  (x3, x 4, x5) = (1,0,0),   (x3, x 4, x5) = (0,1,0)  e   (x3, x 4, x5) =(0,0,1). Explicitamente, essa base  e formada pelos vetores   w1   =

(1, −2,1,0,0), w2  = (−1,0,0,1,0) e  w3  = (0, −1,0,0,1).

Page 122: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 122/358

Secao 9 Eliminacao   111

9.D. O metodo de Gauss-Jordan

 A quarta aplicacao que faremos do metodo de eliminacao e o calculoda inversa de uma matriz (invertıvel) a ∈ M(n×n). Antes porem de-

vemos advertir que a determinacao da inversa nao e necessaria para

resolver o sistema  ax  =  b. A expressao  x  =  a−1 · b  para a solucao

desse sistema  e de grande eleg ancia e significado teorico porem, na

pratica, a obtencao explıcita da inversa  a−1 requer a solucao de  n

sistemas lineares. Convenhamos que isto seria um modo pouco efi-

caz de resolver um  unico sistema.

Com efeito, examinando coluna por coluna cada membro daigualdade  aa−1 = In, vemos que a  j-esima coluna de a−1 e a solucao

do sistema   ax   =   e j, portanto o calculo da inversa   a−1 equivale a

resolver os n  sistemas lineares ax  =  e1, . . . , ax =  en.

O metodo de eliminacao que vimos utilizando e tambem chamado

“metodo de Gauss”. Existe ainda o “metodo de Gauss-Jordan”.

Ele continua a eliminacao iniciada pelo metodo de Gauss, che-

gando no final a uma matriz escalonada, com a propriedade adicio-

nal de que, acima e abaixo do primeiro elemento nao-nulo de cada li-

nha, todos os elementos sao iguais a zero. Se a matriz for (quadrada

e) invertıvel, o primeiro elemento nao-nulo de cada linha da matriz

escalonada esta sobre a diagonal. Portanto, neste caso, o metodo de

Gauss-Jordan produz uma matriz cujos elementos nao-nulos consti-

tuem a diagonal.

 Vejamos um exemplo da eliminacao de Gauss-Jordan.

Exemplo 9.10.  No Exemplo 9.4, o metodo de eliminacao de Gauss

em resumo operou a seguinte transformacao por meio de operacoeselementares sobre as linhas:

0 1 2 3

2 1 3 0

3 4 2 0

 4 2 0 1

−→

2 1 3 0

0 1 2 3

0 0   − 152   − 15

2

0 0 0 7

O metodo de Gauss-Jordan continua, aplicando as operacoes ele-mentares sobre as linhas, de modo a anular tambem os elementos

de cada coluna situados acima da diagonal. Ele prossegue a partir

Page 123: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 123/358

112   Eliminacao Secao 9

daı com as seguintes operacoes elementares:

2 1 3 0

0 1 2 3

0 0   − 152   − 15

2

0 0 0 7

L1−L2−→ 2 0 1   −3

0 1 2 3

0 0   − 152   − 15

2

0 0 0 7

L1+   215

L3−→L2+   4

15L3

L1+   215

L3−

→L2+   4

15L3

2 0 0   − 4

0 1 0 1

0 0   − 152   − 15

2

0 0 0 7

L1+ 47

L4−

→L2− 1

7L4

L3+1514

L4

2 0 0 0

0 1 0 0

0 0   − 152   0

0 0 0 7

.

Esta  ultima matriz diagonal resulta portanto da matriz inicial

pela aplicacao sucessiva de operacoes elementares sobre suas linhas.

Existe ainda uma terceira operacao elementar, que nao tivemos

ainda ocasiao de mencionar porque nao foi necessaria ate agora, mas

que tem tambem a propriedade de, aplicada  as linhas de uma ma-

triz, nao alterar o seu espaco-linha. Ela e a seguinte:

(3) Multiplicar uma linha por um numero = 0.

 Aplicando essa operacao  as linhas da matriz final do exemploacima, obtemos a matriz identidade. (Multiplique a primeira linha

por 1/2, a terceira por −2/15 e a quarta por  1/7.)

O metodo de Gauss-Jordan fornece imediatamente a solucao do

sistema ax = b  sem necessidade de, no final, efetuar a resolucao de

baixo para cima. Com efeito, depois de efetuada qualquer sequencia

de operacoes elementares (inclusive a terceira) sobre as linhas da

matriz aumentada obtemos sempre um sistema equivalente  a′x   =

b′. Se a matriz a  e invertıvel, o processo de Gauss leva a uma matriz

escalonada com elementos todos =   0   na diagonal. Prosseguindo a

partir daı com Gauss-Jordan, chegaremos finalmente a um sistema

a′x = b′, equivalente ao original, com a′  = In, logo x  =  b′, o que nos

da a solucao x  diretamente.

 Assim, a solucao do sistema  ax   =   b  e a  ultima coluna da ma-

triz   [a′; b′ ]  que se obtem aplicando a eliminacao de Gauss-Jordan  a

matriz aumentada [a; b ] de modo a chegar com  a′  = In.

Em particular, tomando b  =  e j ( j-esimo vetor da base canonica de

Rn), a solucao  x  da equacao  ax  =  e j, que  e a  j-esima coluna de  a−1,se obtem efetuando operacoes elementares sobre as linhas da ma-

triz aumentada   [a; e j ]  ate reduzı-la a   [In; x ]. Como essas operacoes

Page 124: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 124/358

Secao 9 Eliminacao   113

dependem apenas da matriz   a   mas nao de   j, isto sugere o topico

seguinte

9.E. Metodo pratico para calcular a inversa a−1

 Acrescenta-se a matriz identidade  In  a direita de  a, de modo a ter

uma matriz aumentada n × 2n:

a11   a12   . . . a1n

a21   a22   . . . a2n...

  ...

  ...

  ...

an1   an2   . . . ann

|

|

|

|

1 0 . . . 0

0 1 . . . 0...

  ...

  ...

  ...

0 0 . . . 1

.

Em seguida aplicam-se operacoes elementares  as linhas dessa ma-

triz aumentada de modo a reduzir a matriz  a  a identidade  In, che-

gando-se a:

1 0 . . . 0

0 1 . . . 0...

  ...  ...

  ...

0 0 . . . 1

|

|

|

|

x11   x12   . . . x1n

x21   x22   . . . x2n...

  ...  ...

  ...

xn1   xn2   . . . xnn

.

 A matriz [xij ]  a direita e a inversa de a.

Exemplo 9.11.  Damos abaixo um exemplo de como obter a inversa

de uma matriz segundo este metodo.

2 4 3

0 1   −1

3 5 7

|

|

|

1 0 0

0 1 0

0 0 1

 →

2 4 3

0 1   −1

0   −1   52

|

|

|

1 0 0

0 1 0

− 32   0 1

 →2 4 3

0 1   −1

0 0   32

|

|

|

1 0 0

0 1 0

− 32   1 1

 →

2 0 7

0 1   −1

0 0   32

|

|

|

1   − 4 0

0 1 0

− 32   1 1

 →

2 0 0

0 1 0

0 0   32

|

|

|

8   − 263   − 14

3

−1   53

23

− 32   1 1

 →

1 0 0

0 1 0

0 0 1

|

|

|

 4   − 133   − 7

3

−1   53

23

−1   23

23

Portanto 2 4 30 1   −1

3 5 7

−1

=

 4   − 133   − 73

−1   53

23

−1   23

23

  .

Page 125: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 125/358

Page 126: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 126/358

Secao 9 Eliminacao   115

9.6. A matriz a ∈ M(m ×n) tem apenas uma linha e uma coluna nao-

nulas. Dada  b ∈  M(m × 1), quais sao as dimensoes possıveis para

a variedade afim formada pelas solucoes  x ∈   M(n × 1)  do sistemaax =  b ?

9.7. Exprima cada vetor do conjunto { u, v, w, z } ⊂ E como combinacao

linear dos vetores { w, u + 3z,v − 2u + 3w,5z }.

9.8.   Obtenha uma base para o subespaco vetorial gerado por cada

um dos seguintes conjuntos e, consequentemente, determine a di-

mensao daquele subespaco:

(a)   {(1,2,3,4), (3,4,7,10), (2,1,3,5)}

(b)   x3 + 2x2 + 3x + 4, 5x3 + 4x2 + 3x + 2, 4x3 − 2x2 + x, 7x3 + 2x2 − 3x − 8

(c)   (1,3,5), (−1,3, −1), (1,21,1)

(d)   (1,2,3), (1,4,9), (1,8,27).

9.9.   Mostre que se  0,  1,  a,  b,  c  sao numeros dois a dois diferentes

entao os vetores  (1,1,1,1),  (a, a2, a3, a 4),  (b, b2, b3, b 4)  e  (c, c2, c3, c 4)

sao linearmente independentes. Generalize.

9.10.  Exiba uma base para a imagem de cada uma das transforma-

coes lineares abaixo e determine seu posto.

(a)   A :  R 4 → R3, A(x,y,z,t) = (x + 2y − t,2x − z + 2t, −2x + y + 3z )

(b)   B :  R 4 → R5, B(x,y,z,t) = (x + 2y + 2z − t,2x + 4y + 3z + t, −3x +

2z + 3t, −3x + z + 6t, 10x + 2y + 5z + 5t)

(c)   C :  R3 → R3, C(x,y,z ) = (x + 3y,2y + 4z, x + y − 4z )

(d)   D :

 P n → P 

n, Dp(x) = p′(x).

9.11.  Use escalonamento para resolver os seguintes sistemas linea-

Page 127: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 127/358

116   Eliminacao Secao 9

res:x   +   3y   +   z    =   1

2x   +   6y   +   9z    =   7

2x   +   8y   +   8z    =   6

x   +   y   +   t   =   0

x   +   2y   +   z    +   t   =   1

3x   +   3y   +   z    +   2t   = −1

 y   +   3z    −   t   =   3

x   +   y   −   z    +   2t   =   03y   −   z    +   3t   =   0

2x   −   y   −   z    +   t   =   0

9.12.   Ache uma condicao envolvendo   a,   b,   c   para que o sistema

abaixo tenha solucao e encontre as solucoes no caso em que elas

existamx   +   y   +   z    +   t   =   a

5y   +   2z    +   4t   =   b

3x   −   2y   +   z    −   t   =   c

9.13. Ache uma base para o nucleo de cada uma das transformacoes

lineares a seguir:

(a)   A :  R3 → R3, A(x,y,z ) = (−3y + 4z, 3x − 5z, − 4x + 5y).

(b)   B :  R 4

→ R5,  B(x,y,z,t) = (2x −  2z  +  4t, x −  2z  + 3t, 4y +  2z  +

t,6x + 4y − 4z + 13t, 2x + 4y − 2z + 7t)

(c)   C :  R 4 → R3, C(x,y,z,t) = (2x+ y−z +3t,x− 4y+2z +t,2y+ 4z −t).

(d)   T : P → P , T  · p(x) = p(x + m ), m  = 0.

9.14.  Decida quais das matrizes abaixo possuem inversa e calcule a

inversa quando existir.

1 23 4

 4 2 3 4 5 6

7 8 8

1 2 3 4

5 6 7 89 10 11 12

 4 3 2 1

1 1 1 1

2 3 2 13 1 1 2

1 2 1 3

Page 128: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 128/358

Secao 9 Eliminacao   117

9.15.  Prove que o sistema

x   +   2y   +   3z    −   3t   =   a

2x   −   5y   −   3z    +   12t   =   b

7x   +   y   +   8z    +   5t   =   c

admite solucao se, e somente se, 37a +13b =  9c. Ache a solucao geral

do sistema quando a  =  2  e  b  =  4.

9.16. Prove que toda matriz anti-simetrica 3 × 3 nao-nula tem posto

igual a dois. De exemplo de uma matriz anti-simetrica invertıvel

 4

× 4.

9.17.  Considere o sistema de n  equacoes lineares a n  incognitas:

xi + xi+1  = ai   (i =  1, . . . , n − 1), x1 + xn  = an.

(a) Se  n  e  ımpar, prove que ele possui solucao  unica, sejam quais

forem os ai. Explicite esta solucao.

(b) Supondo   n   par, obtenha condicoes sobre os   ai   que sejam

necessarias e suficientes para que o sistema possua solucao.Caso existam solucoes, determine a variedade afim por elas

formada.

Page 129: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 129/358

10

Produto Interno

O produto interno, que j´ a foi mencionado brevemente antes, na de-

 finic ˜ ao do produto de duas matrizes, ser´ a apresentado formalmente

nesta sec ˜ ao e adotado sistematicamente a partir daqui. Trata-se de

uma noc ˜ ao que completa e enriquece a estrutura de um espaco ve-torial, permitindo a utilizac ˜ ao de uma linguagem geom´  etrica alta-

mente sugestiva e o destaque de tipos especiais de operadores, os

quais admitem uma an´ alise mais profunda de suas propriedades,

como se ver´ a a seguir.

Os axiomas de espaco vetorial nao sao suficientes para abordar

certas nocoes geometricas como  angulo, perpendicularismo, compri-

mento, distancia, etc. Isto se torna possıvel com a introducao de um

produto interno.

Um   produto interno  num espaco vetorial   E   e um funcional bi-

linear simetrico e positivo em   E. Mais precisamente, um produto

interno  e uma funcao  E × E →   R, que associa a cada par de veto-

res  u, v ∈  E  um numero real  u, v, chamado o produto interno de  u 

por  v, de modo que sejam validas as seguintes propriedades, para

quaisquer  u, u ′, v , v′ ∈ E  e  α  ∈ R:

Bilinearidade: 

 u + u ′, v

  = 

 u, v

  + 

 u ′, v

αu,v

  =   α  u, v

,

 u, v + v′ =  u, v +  u, v′,  u, αv = α  u, v;

Comutatividade (simetria):  u, v =  v, u ;

Page 130: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 130/358

Secao 10 Produto Interno   119

Positividade:  u, u  > 0 se  u  = 0.

Como 0, v   =  0 + 0, v   =  0, v  + 0, v, segue-se que 0, v   =

 v, 0 = 0  para todo v ∈ E.Resulta da positividade que se  u, v   =   0  para todo  v ∈  E  entao

 u   =   0. Com efeito, se fosse  u  =   0   terıamos  u, v =   0  pelo menos

quando  v  =  u .

Segue-se desta observacao que se  u, u ′ ∈  E  sao vetores tais que

 u, v  =  u ′, v para todo v ∈ E entao u  = u ′. Com efeito, isto implica

que  u − u ′, v =  0  para todo v ∈ E, logo u − u ′  = 0  e  u  = u ′.O numero nao-negativo   | u |   =

  u, u    chama-se a   norma   ou o

comprimento do vetor  u . Com esta notacao, tem-se   | u |2 =

  u, u 

 e a

igualdade

 u + v, u + v =  u, u  +  u, v +  v, u  +  v, vle-se:   | u + v|2 =  | u |2 + | v|2 + 2  u, v.

Quando   | u |  =  1  diz-se que  u  ∈ E  e um  vetor unit´ ario. Todo vetor

 u  = 0  se escreve como u  =  | u | · u ′, onde u ′  e um vetor unitario. Basta

por u ′  = | u |−1 · u .

Exemplo 10.1.  No espaco euclidiano Rn, o produto interno canonico

dos vetores u  = (α 1, . . . , α  n) e  v  = (β1, . . . , βn)  e definido por  u, v  =

α 1β1 + · · · + α nβn. Este  e o produto interno que consideraremos em

Rn, salvo aviso em contrario.

Exemplo 10.2.  Consideremos R2 como o modelo aritmetico do plano

euclidiano, no qual se introduziu um sistema de coordenadas carte-

sianas. Dados u  = (α 1, α 2) e  v  = (β1, β2), os numeros

| u | =  α 21

 + α 22

e

| v| =

 β2

1 + β22

medem realmente os comprimentos das flechas que representam es-

ses vetores. Suponhamos  u  =   0,  v =   0  e chamemos de  θ  o  angulo

formado por essas flechas. Afirmamos que o produto interno  u, v  =

α 1β1  + α 2β2  acima definido  e igual a   | u | | v| cos  θ. Isto sera provado

em tres passos: 1o

¯

) Se os vetores  u  e  v  sao perpendiculares, entao

 u, v =  0  =  | u | | v| cos  90◦. Com efeito, por um lado,

| u + v|2 =  u + v, u + v = | u |2 + | v|2 + 2  u, v

Page 131: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 131/358

120   Produto Interno Secao 10

e por outro lado, pelo Teorema de Pitagoras,

| u + v|2 = | u |2 + | v|2.

Figura 10.1.

Logo  u, v   =   0. 2o¯ ) Se   | u |   =   | v|   =   1  entao  u, v   =   cos  θ. Com

efeito, tomando o vetor unitario   u ∗   perpendicular a   u   temos, pela

definicao de seno e cosseno,  v  = cos  θ · u + sen  θ · u ∗. (Fig. 10.2.)

Figura 10.2.

Tomando o produto interno de ambos os membros desta igualdade

por  u  vem  u, v   =  cos  θ ·  u, u  + sen  θ ·  u, u ∗. Como  u, u    =  1  e

 u, u ∗  =  0  pelo primeiro passo, temos  u, v   =  cos  θ. 3o¯ ) Caso ge-

ral: pomos u  = | u | · u ′ e  v  =  | v| · v′, onde u ′  = (1/| u |) u  e v′  = (1/| v|) v sao

vetores unitarios. Entao  u, v   =   | u | | v|  u ′, v′   =   | u | | v| cos  θ. Vemos,

em particular, que os vetores  u , v  formam um  angulo agudo quando u, v   > 0, um  angulo obtuso quando  u, v   < 0   e um  angulo reto

quando  u, v = 0.

Page 132: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 132/358

Secao 10 Produto Interno   121

Exemplo 10.3.  Seja E  =  Co([a, b ]) o espaco vetorial cujos elementos

sao as funcoes contınuas  g, f : [a, b ]

→R. Um produto interno em  E

pode ser definido pondo

f, g =

 ba

f(x)g(x) dx.

Neste caso, a norma da funcao f  e

|f| =  b

af(x)2 dx.

Este produto interno e utilizado no estudo das series de Fourier.

Observac ˜ ao.  Seja E  um espaco vetorial de dimensao finita arbitra-

rio. Dada uma base   { u 1, . . . , u  n} ⊂   E, podemos definir um produto

interno em   E   pondo, para   u   =   Σα i u i   e   v   =   Σβi u i,  u, v   =   Σα iβi,

por definicao. Isto mostra que todo espaco vetorial de dimensao fi-

nita pode ser munido de um produto interno. (Fato verdadeiro em

geral, pois qualquer espaco vetorial possui base, mas nao entrare-

mos nesse terreno.) Assim, quando nos referirmos a um espaco mu-

nido de um produto interno, nao estaremos com isso atribuindo uma

propriedade especial a esse espaco mas apenas dizendo que, entre

os possıveis produtos internos que nele podem ser introduzidos, um

particular foi escolhido e fixado.

Seja   E   um espaco vetorial com produto interno. Dois vetores

 u, v ∈ E chamam-se ortogonais (ou  perpendiculares) quando  u, v  =

0. Escreve-se, entao, u  ⊥  v. Em particular, 0  e ortogonal a qualquer

vetor de E. Um conjunto  X ⊂ E  diz-se ortogonal quando dois vetores

distintos quaisquer em X  sao ortogonais. Se, alem disso, todos os ve-

tores de X  sao unitarios entao X  chama-se um conjunto  ortonormal.

Portanto, o conjunto   X ⊂   E   e ortonormal se, e somente se, dados

 u, v ∈  X  tem-se  u, v  =  0  se  u  =  v  e  u, v  =  1  se  v   =  u . Uma  base

ortonormal  e uma base de  E  que e um conjunto ortonormal.

Teorema 10.1.   Num espaco vetorial   E   com produto interno, todo

conjunto ortogonal X  de vetores n˜ ao-nulos ´  e L.I. .

Page 133: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 133/358

122   Produto Interno Secao 10

Demonstrac ˜ ao:  Sejam v1, . . . , vn ∈ X. Temos  vi, v j = 0  se  i = j. Se

α 1 v1  + · · · + α n vn   =  0  e uma combinacao linear nula desses vetores

entao, para cada i  =  1, 2, . . . , n, tomamos o produto interno de ambosos membros desta igualdade por vi  e temos

α 1  v1, vi + · · · + α n  vn, vi =  0,

logo  α i  vi, vi   =   α i| vi|2 =   0  pois todos os produtos internos  v j, vi,

com j = i, sao nulos em virtude da ortogonalidade de  X. Alem disso,

como os vetores pertencentes ao conjunto  X  sao todos nao-nulos, re-

sulta de α i| vi|2 = 0 que α i  = 0. Assim, os coeficientes da combinacaolinear  Σα i vi   =   0  sao todos iguais a zero e os vetores do conjunto  X

sao, portanto, linearmente independentes.

Exemplo 10.4.  A base canonica {e1, . . . , en} ⊂ Rn e ortonormal: tem-

se ei, e j  = δij, onde δij  = 0 se i = j e  δij  = 1  se i = j. No plano  R2 os

vetores u  = (1, 1) e  v  = (−1, 1) sao ortogonais. Pondo

 u ′  =√ 2

2  , √ 2

2

  e   v′  =

−√ 2

2  , √ 2

2

,

o conjunto { u ′, v′} ⊂ R2 e uma base ortonormal.

Quando  u  e  v  sao ortogonais, a igualdade   | u  +  v|2 =   | u |2 + | v|2 +

2  u, v  se torna   | u  +  v|2 =   | u |2 + | v|2. Esta  e a versao do  Teorema de

 Pit ´ agoras para um espaco vetorial com produto interno.

Num espaco vetorial   E   com produto interno, seja   u   um vetorunitario. Dado qualquer v ∈ E, o vetor  u, v · u  chama-se a projec ˜ ao

ortogonal de  v  sobre o eixo que cont´  em  u . A justificativa para esta

denominacao esta no fato de que, escrevendo  w  =  v −  u, v u , tem-

se   v   =  u, v u  +  w, onde   w   ´  e perpendicular a   u . Com efeito, to-

mando o produto interno de  u  por ambos os membros da igualdade

 w = v −  u, v u  tem-se

 u, w =  u, v −  u, v  u, u  =  u, v −  u, v = 0,

pois  u, u  = 1. (Fig. 10.3)

Page 134: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 134/358

Secao 10 Produto Interno   123

Figura 10.3.

Quando se tem apenas  u  =   0, o eixo que contem  u  e o mesmo

que contem o vetor unitario  u ′   =   u/| u |   (=   | u |−1

· u ). A projecao or-

togonal de   v   sobre este eixo  e, portanto, igual a  u ′, v u ′, ou seja,

( u, v /  u, u ) · u . Usaremos a notacao

pr u ( v) =  u, v u, u  ·   u 

para indicar a projecao ortogonal do vetor  v  sobre o eixo que contem

o vetor nao-nulo u .

Se   z   =   pr u ( v), tem-se   v   =   z  +  w, com   w

 ⊥  z . Pelo Teorema

de Pitagoras,   | v|2 =   |z |2 +   | w|2. Em particular vemos que   |z | ≤   | v|,isto  e, o comprimento da projecao pr u ( v)  e menor do que ou igual ao

comprimento de v.

Ora, a norma do vetor pr u ( v)  e igual a |  u, v |/| u |. Segue-se entao

que, para quaisquer u, v ∈ E, tem-se |  u, v |/| u | ≤ | v|, ou seja

|  u, v | ≤ | u | · | v|   (desigualdade de Schwarz).

 A rigor, o argumento acima prova a desigualdade de Schwarzapenas no caso em que  u = 0. Mas ela e  obvia no caso em que  u  =  0.

Logo vale em geral.

Um importante complemento da desigualdade de Schwarz e que

vale a igualdade   |  u, v |   =   | u | | v|  se, e somente se, um dos vetores

 u ,   v  e multiplo do outro. Isto resulta do raciocınio acima pois, no

Teorema de Pitagoras   | v|2 =   |z |2 +   | w|2, dizer   | v|   =   |z |   significa que

 w =  0, isto e, que v  e multiplo de u .

Resulta da desigualdade de Schwarz que num espaco vetorial

com produto interno a norma satisfaz a desigualdade triangular:

| u + v| ≤ | u | + | v|.

Page 135: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 135/358

Page 136: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 136/358

Secao 10 Produto Interno   125

dois a dois ortogonais, gerando o subespaco  Fm , o mesmo que  e ge-

rado por v1, . . . , vm . Definimos wm +1  pondo

 wm +1  = vm +1 −m 

i=1

 wi, vm +1 wi, wi   wi .

Figura 10.4. w3  = v3 − z 3, z 3  =   w1,v3 w1,w1 w1 +

   w2,v3 w2,w2 w2.

Um calculo simples mostra que  wm +1   e ortogonal a  w1, . . . , wm .

 Alem disso,   wm +1 =   0   porque   vm +1   nao pertence ao subespaco   Fm 

gerado por  w1, . . . , wm  (ou por  v1, . . . , vm ). E, finalmente,  wm +1  per-

tence ao subespaco gerado por   { w1, . . . , wm , vm +1}, o qual  e igual a

Fm +1. Isto completa o processo.

Observamos que se os primeiros  m  vetores da base  { v1, . . . , vn} ⊂E   ja formarem uma base ortonormal do subespaco por eles gerado

entao o processo de Gram-Schmidt transforma essa base numa base

ortonormal  { u 1, . . . , u  n} ⊂ E  na qual u 1  = v1, . . . , u  m  = vm .

Segue-se daı que, dado um subespaco vetorial  F ⊂   E, toda base

ortonormal de  F  estende-se a uma base ortonormal de  E: basta es-

tende-la a uma base qualquer de   E   e depois ortonormalizar esta

ultima por Gram-Schmidt.

O significado geometrico do processo de Gram-Schmidt  e bas-

tante simples e fica ilustrado na figura: se  { w1, . . . , wm } ⊂   F  e uma

base ortogonal entao, para todo v

 ∈ E, o vetor

z  =

m i=1

 wi, v wi, wi   wi ∈ F,

Page 137: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 137/358

126   Produto Interno Secao 10

soma das projecoes ortogonais de v  sobre os eixos dos wi, tem a pro-

priedade de que  w   =  v −  z  e perpendicular aos vetores  w1, . . . , wm .

Daı resulta imediatamente que w  e perpendicular a todos os vetoresde  F, pois esses vetores sao combinacoes lineares dos  wi. O vetor z 

chama-se a  projec ˜ ao ortogonal   de   v   sobre o subespaco  F. Escreve-

se  z  =  prF( v). (Fig. 10.5.) [Para a f ormula de prF( v)  quando a base

 { w1, . . . , wm } ⊂ F  nao e ortogonal, veja os Corolarios 1 e 2 do Teorema

16.1 ou o Exercıcio 16.7.]

Figura 10.5.

Se z ′  e qualquer outro vetor em  F, temos

 v − z ′  = ( v − z ) + (z − z ′).

Como   z  − z ′ ∈   F, segue-se que   ( v  − z ) ⊥   (z  − z ′). Do Teorema de

Pitagoras resulta entao que | v −z ′|2 = | v −z |2 + |z − z ′|2. Em particular,

| v  −  z ′| ≥   | v  − z |. Isto mostra que a distancia de   v  a sua projecaoz  =  prF( v)  sobre o subespaco  F  e menor do que ou igual  a distancia

de   v   a qualquer outro vetor   z ′ ∈   F. Noutras palavras, a projecao

z  = prF( v)  e o vetor mais proximo de v  no subespaco F.

Se { u 1, . . . , u  m } ⊂ F  e uma base ortonormal entao a projecao orto-

gonal de um vetor  v ∈   E  sobre o subespaco  F  se exprime, de forma

mais simples, como

prF( v

) =

i=1  u i, v u i.

Isto esta de acordo com a seguinte observacao geral:

Page 138: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 138/358

Secao 10 Produto Interno   127

Seja { u 1, . . . , u  n} ⊂ E  uma base ortonormal. Para todo vetor  v ∈ E

tem-se

 v =

ni=1

 u i, v · u i .

Com efeito, v  se exprime como combinacao linear

 v = α 1 u 1 + · · · + α n u n

em termos da base dada. Tomando o produto interno de ambos os

membros desta igualdade por   u i, temos  u i, v   =   α i   (i   =   1, . . . , n)

pois  u i, u  j =  δij   (= 1  se  i  =  j  e  =  0  se  i = j).

 Assim, as coordenadas de um vetor relativamente a uma baseortonormal sao os produtos internos desse vetor pelos elementos da-

quela base.

Se  u   =   Σα i u i   e  v   =   Σβ j u  j   sao as expressoes dos vetores  u, v ∈E  em termos de uma base ortonormal   { u 1, . . . , u  n} ⊂   E, as relacoes

 u i, u  j =  δij   implicam imediatamente que

 u, v =

  n

i=1

α i u i,

n

 j=1

β j u  j

 =

n

i,j=1

α iβ j  u i, u  j =

n

i=1

α iβi.

Portanto, quando se referem os vetores de E  a uma base ortonormal

fixada, o produto interno assume a forma  u, v  =  Σα iβi, analoga  a

do produto interno canonico de Rn.

Tomando, mais geralmente, uma base arbitraria  { v1, . . . , vn} ⊂ E

e pondo  vi, v j =  gij, o produto interno dos vetores

 u  =

n

i=1

α i vi   e   v =

n

 j=1

β j v j

se exprime como

 u, v =

ni,j=1

gij α iβ j .   (*)

 A matriz  g   = [gij ] ∈   M(n × n)  e  sim´  etrica, isto  e,  gij   =   g ji   pois

 vi, v j   =  v j, vi. Mais ainda: a matriz  g  e  positiva. Isto significa

que, alem de  g   ser simetrica, para qualquer lista   (x1, . . . , xn)   de   n

numeros reais nao todos nulos, tem-se

ni,j=1

gij xix j  > 0.

Page 139: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 139/358

128   Produto Interno Secao 10

Reciprocamente, fixada uma base { v1, . . . , vn} num espaco vetorial

E   (que pode ser, por exemplo, a base canonica em  Rn) e dada uma

matriz simetrica positiva g  = [gij ] ∈ M(n × n), a igualdade (*) acimadefine um produto interno em  E.

Exercıcios

10.1. Seja E um espaco vetorial com produto interno. Para quaisquer

vetores u, v

 ∈ E, prove que | u | v + | v| u  e  | u | v − | v| u  sao ortogonais.

10.2.   Seja   { u 1, . . . , u  n} ⊂   E   uma base ortonormal. Prove que, para

 v, w ∈ E  arbitrarios, tem-se  v, w =n

i=1

 v, u i  w, u i.

10.3.   Dado o vetor  u   = (2,3,6), seja  P :  R3 →   R3 o operador linear

definido por Pv  = pr u ( v). Descreva I − 2P  geometricamente, escreva

a matriz da reflexao H  = I − 2P  e determine o vetor que se obtem de

 w = (1,1,1) por reflexao em torno do plano perpendicular a  u .

10.4.  Considere a base V   =   { v1, v2, v3} ⊂  R

3

, formada pelos vetores v1   = (1,1,1),  v2   = (1, −1, 1)  e  v3   = (1, −1, −1). Determine a matriz

de passagem p, de V  para a base ortonormal U   =  { u 1, u 2, u 3}, obtida

de V  pelo metodo de Gram-Schmidt. Observe que os elementos da

diagonal de  p  sao numeros positivos e abaixo da diagonal todos sao

nulos. Generalize.

10.5.   Seja V   =   { v1, . . . , vn} ⊂   Rn uma base, com   v j   = (α 1j, α 2j, . . .,

. . . , α  nj),   j   =   1, . . . , n. Seja U  a base ortonormal de  Rn obtida de V pelo processo de Gram-Schmidt. Prove que U   e a base canonica deR

n se, e somente se,   α ij   =   0   para todo   i > j   e   α ii   > 0   para todo

i =  1, . . . , n.

10.6.   Sem fazer calculo algum, diga quais sao as bases obtidas de

V  = { v1, v2, v3} pelo processo de Gram-Schmidt nos seguintes casos:

(a)   v1  = (3,0,0), v2  = (−1,3,0), v3  = (2, −5, 1);

(b)   v1  = (−1,1,0), v2  = (5,0,0), v3  = (2, −2, 3).

10.7.   Dado o vetor unitario  u   = (α 1, . . . , α  n) ∈   Rn, forme a matriz

a   = [α i · α  j ] ∈   M(n × n). Seja H :  Rn → Rn o operador cuja matriz

Page 140: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 140/358

Secao 10 Produto Interno   129

na base canonica  e   In  − 2a. Mostre que para todo   v ∈   Rn tem-se

Hv =  v − 2  v, u  u  e conclua que  |Hv| =  | v|.

10.8.  Num espaco vetorial com produto interno, o  angulo entre doisvetores nao-nulos  u ,  v  e, por definicao, o  angulo  θ   = <)( u, v), tal que

0 ≤   θ ≤   180◦   e cos  θ   =  u, v /| u | | v|. Dito isto, e dados os vetores

 u   = (3, 4),  v   = (1, −1)  e  w   = (−1, 1), ponha em ordem crescente os

angulos  <)( u, v), <)( u, w) e  <)( v, w).

10.9.   Sejam u, v ∈  R2 vetores L.I. . Prove que o vetor | u | v +  | v| u  esta

contido na bissetriz do  angulo formado por u  e  v.

10.10. Seja u  = (

a,b,c) ∈R

3

um vetor unitario, com abc =

 0. Deter-mine t  de modo que, pondo  v  = (−bt,at,0) e  w  = (act, bct, −1/t), os

vetores u , v, w  sejam unitarios e dois a dois ortogonais.

10.11.  Para cada par de vetores u  = (x, y), v  = (x′, y′) em  R2, ponha

[ u, v ] =   2xx′  − xy′  − x′ y  + 2yy′. Prove que isto define um produto

interno no espaco vetorial R2.

10.12.  Dado o produto interno  u, v no espaco vetorial  E, prove que

se tem   | u  + v|2 +   | u  − v|2 =   2(| u |2 +   | v|2)   para quaisquer   u, v

 ∈  E.

Interprete esta igualdade geometricamente.

10.13.   Seja  X  um conjunto de geradores do espaco vetorial  E, onde

esta definido um produto interno. Se os vetores u, v ∈ E  sao tais que

 u, w =  v, w para qualquer w ∈ X, prove que u  =  v.

10.14.   Seja   { v1, . . . , vn}  uma base no espaco vetorial   E, munido de

produto interno. Dados n  numeros reais arbitrarios α 1,...,α n, prove

que existe um, e somente um, vetor  w ∈ E  tal que

 w, v1  =  α 1, . . . ,  w, vn =  α n.

10.15. Para toda base V  = { v1, . . . , vn} no espaco vetorial E, dotado de

produto interno, prove que existe uma  unica base W   =  { w1, . . . , wn}

⊂   E   tal que  wi, v j   =   δij   (i, j   =   1 , 2 , . . . , n). Se  vi, v j   =   aij   e

 wi, w j =  bij, prove que as matrizes  a  = [aij ] e  b  = [bij ] sao inversas

uma da outra.

10.16. Suponha que[ u, v ] =

ni,j=1

aijxi y j

Page 141: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 141/358

130   Produto Interno Secao 10

defina, para  u   = (x1, . . . , xn)  e  v   = ( y1, . . . , yn), um produto interno

em Rn. Prove que a11  > 0, . . . , ann > 0.

10.17. Calcule tres produtos internos entre os vetores  u  = (1,0, −1), v   = ( 4, 1, 4),   w   = (−3,24, −3)   e conclua que eles sao linearmente

independentes.

10.18.   Em cada um dos casos abaixo, determine se o conjunto

 { u, v, w} ⊂ R3 e ortonormal, apenas ortogonal ou nenhum dos dois.

(a)   u  = (1,2,1), v  = (1, −1, 1), w  = (−1,1,2).

(b)   u  = (a,b,c), v  = (−b,a,0), w  = (−ac, −bc,a2 + b2).

(c)   u  =   17 (2,6,3), v  =   1

7 (3,2, −6), w  =   17 (6, −3, 2).

10.19.   Seja    ,    um produto interno no espaco vetorial   F. Dado

um isomorfismo  A :  E →   F, ponha   [ u, v ] = Au, Av  para quaisquer

 u, v ∈ E. Prove que [  ,   ]  e um produto interno em  E.

10.20.   Dados os vetores  u   = (2, −1, 2),  v  = (1,2,1)  e  w   = (−2,3,3),

determine o vetor deR3 que e a projecao ortogonal de w sobre o planogerado por u  e  v.

10.21. Qual e a base ortonormal de R3 obtida pelo processo de Gram-

Schmidt a partir da base  { u, v, w}, onde u  = (2,6,3), v  = (−5,6,24) e

 w = (9, −1, − 4)?

10.22.   Mesma pergunta do exercıcio anterior para   u   = (3,4,12),

 v = (7, −8,15) e  w  = (−15,6,44).

10.23.   Para todo numero natural   n, prove que a norma do vetor

 v = (n, n + 1, n(n + 1)) ∈ R3 e um numero natural.

10.24.   Aplicando o processo de Gram-Schmidt a um conjunto de

vetores  v1, . . . , vm  cuja independencia linear nao  e conhecida, prove

que se obtem o primeiro vetor   wr+1   =   0   quando   v1, . . . , vr   sao L.I.

mas vr+1  e combinacao linear de v1, . . . , vr.

10.25.  Fixado o vetor unitario  u  = (a1, . . . , an) ∈  Rn, seja  P :  Rn

→Rn o operador linear definido por  Pv  =  pr u ( v) =  projecao ortogonalde  v  sobre o eixo de  u . Mostre que P2 =   P, determine o nucleo de

P, as matrizes de  P, de  I −  P  e da reflexao ortogonal  H  =  I −  2P  em

Page 142: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 142/358

Secao 10 Produto Interno   131

torno do nucleo de P. (A matriz de  H  e conhecida como uma  matriz

de Householder.)

10.26.   Seja  a  um vetor nao-nulo no espaco vetorial  E, de dimensaon, munido de produto interno. Para todo b ∈ R, prove que o conjunto

V  =  { v ∈ E;  v, a =  b}  e uma variedade afim de dimensao n − 1. Dado

 vo ∈ V , mostre que v ∈ V  se, e somente se, v − vo  e ortogonal a a.

10.27.   Sejam   u   = (x1, x2, x3)   e   v   = ( y1, y2, y3)   vetores em   R3. O

 produto vetorial de  u  por  v  e definido como o vetor

 u 

× v = (x2 y3 − x3 y2, x3 y1 − x1 y3, x1 y2 − x2 y1).

Prove que valem as seguintes propriedades:

(a)   u × v = − v × u ;

(b)   u × ( v + v′) = u × v + u × v′;

(c)   u × (αv) = α ( u × v);

(d)   u × v = 0  se, e somente se, u  e  v  sao L.D.;

(e)   u × v  e ortogonal a u  e a v;

(f)   e1 × e2  = e3, e2 × e3  = e1, e3 × e1  = e2.

[Mais detalhes sobre o produto vetorial no livro “Coordenadas no

Espaco”, do autor, publicado pela Soc. Bras. de Mat.]

10.28.   Seja r  =  {(1 − t) u  + tv; t

 ∈ R} a reta que liga  u  a  v  em E, com

 u  =  v. Dado  w ∈  E, prove que, tomando  t  =  w − u, v − u  /| v −  u |2

obtem-se o ponto  x  = (1 − t) u  + tv  de r mais proximo possıvel de  w,

ou seja, tem-se |x − w| <  | y − w| para qualquer outro ponto y ∈ r.

10.29.   Seja U   =   { u 1, . . . , u  n} ⊂   E  uma base no espaco vetorial   E,

munido de produto interno. Suponha que, para todo   v   =   x1 u 1   +

· · · +  xn u n ∈   E  se tenha   | v|2 =   x21  + · · ·  +  x2

n. Prove que a base U   eortonormal.

10.30.   Complete os detalhes do seguinte argumento que prova aexistencia de uma base ortonormal em qualquer espaco vetorial  E,

de dimensao   n, com produto interno: “Seja U   =   { u 1, . . . , u  r} ⊂   E

Page 143: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 143/358

132   Produto Interno Secao 10

um conjunto ortonormal com o maior numero possıvel de elementos.

Para todo vetor v ∈ E, o vetor

 w =  v −r

i=1

 v, u i u i

e ortogonal a u 1, . . . , u  r. Pela maximalidade de U , tem-se w  =  0, logo

 U   gera E  e  e uma base ortonormal.”

10.31.   Seja  E  um espaco vetorial com produto interno. Prove que,

para quaisquer u, v ∈ E, tem-se | | u | − | v| | ≤ | u − v|.

10.32.   Prove que um operador   A :  E →   E, num espaco vetorial dedimensao finita com produto interno, tem posto 1 se, e somente se,

existem vetores nao-nulos  a, b ∈  E  tais que  Av   =  v, a b  para todo

 v ∈ E. (Compare com o Exercıcio 8.27.)

10.33.   Num espaco vetorial   E   com produto interno, o   cosseno   do

angulo entre dois vetores nao-nulos  u ,  v  e definido como cos( u, v) =

 u, v /| u | | v|. Prove que se   u   e   v   sao ortogonais e nao-nulos entao

cos2( u, u − v)+cos2( v, u − v) = 1. (A soma dos quadrados dos cossenos

dos  angulos agudos de um triangulo retangulo  e igual a 1.)

10.34.   Sejam  E  um espaco vetorial com produto interno,  C ⊂  E  um

conjunto convexo e  a ∈   E  um ponto fora de  C. Suponha que exis-

tam  xo, x1 ∈  C  com a seguinte propriedade: para todo  x ∈  C  tem-se

|a − xo| ≤ |a − x| e  |a − x1| ≤ |a − x|. Prove que xo  = x1.

Page 144: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 144/358

11

A Adjunta

 Mostraremos, nesta sec ˜ ao, como o produto interno nos permite asso-

ciar a cada transformac ˜ ao linear A :  E

→F uma nova transformac ˜ ao

A∗ :  F → E , chamada a adjunta de  A. (Em espacos sem produto in-

terno tamb´  em existe uma noc ˜ ao de adjunta, mas a´ ı se trata de umatransformac ˜ ao linear F∗ → E∗ , do dual de F  no dual de E. O produto

interno nos d´ a condic ˜ ao de permanecer com   E   e   F. Isto ´   e particu-

larmente interessante no caso de um operador linear  A :  E → E.) A

adjunta nos d´ a, por assim dizer, uma vis˜ ao da transformac ˜ ao A sob

um novo angulo. Essa mudanca de ponto de vista ´  e reveladora, espe-

cialmente quando ocorre a existˆ encia de relac˜ oes entre A  e  A∗.

Sejam dim  E  =  n  e dim  F  =  m . Vimos na Secao 8 que a escolha

de bases em  E  e  F  determina um isomorfismo  ϕ : L(E; F) → M(m ×n), portanto o espaco vetorial L(E; F)   das transformacoes lineares

de  E  em  F  tem dimensao  mn. Em particular, o espaco  E∗   = L(E;R)

cujos elementos sao os funcionais lineares f :  E→ R, chamado espaco

dual   de   E, tem dimensao   n. Isto implica que   E∗   e isomorfo a   E.

Na realidade, dada uma base V   =   { v1, . . . , vn} ⊂  E, existe uma base

V ∗  =  { v∗1, . . . , v∗n} ⊂ E∗, chamada  base dual de V , onde, por definicao,

para cada vetor   v   =   Σα i vi ∈   E, tem-se   v∗i ( v) =   α i. (A verificacao

de que V ∗  ⊂   E∗   e uma base pode ser feita diretamente ou entaomediante a observacao de que   ϕ( v∗i ) =   ei   =   i-esimo elemento da

base canonica de  Rn, onde  ϕ :  E∗ → M(1 × n) =  Rn e o isomorfismo

Page 145: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 145/358

134   A Adjunta Secao 11

acima mencionado.) Obtem-se um isomorfismo  A :  E

→E∗   impondo

que Avi  = v∗i   (i =  1, . . . , n).

Uma desvantagem dos isomorfismos entre  E  e  E∗  obtidos medi-ante o emprego de uma base  e que eles nao sao intrınsecos: dado um

vetor  v ∈  E, o funcional  v∗ ∈  E∗  que a ele corresponde depende nao

apenas de  v  mas tambem da base de  E   que se tomou. Esta dificul-

dade, entretanto, desaparece quando  E  esta munido de um produto

interno, como veremos agora.

Seja E  um espaco vetorial de dimensao finita, dotado de um pro-

duto interno. Definimos uma transformacao linear   ξ :  E

 →  E∗   fa-

zendo corresponder a cada vetor  v

 ∈ E  o funcional linear  ξ

· v  =  v∗,

tal que v∗( w) =  w, v para todo w ∈ E.

 A verificacao da linearidade de ξ  e imediata: se u, v ∈ E, como

( u + v)∗( w) =  w, u + v =  w, u  +  w, v= u ∗( w) +  v∗( w)

= [ u ∗ +  v∗ ]( w)

para todo  w

 ∈ E, temos  ( u  +  v)∗   =  u ∗  + v∗. Analogamente,  (αv)∗   =

α · v∗. Alem disso,  ξ  e injetiva. Com efeito, dado v ∈ E, se v∗  = 0 entao,

para todo w ∈ E tem-se

 w, v =  v∗( w) = 0( w) = 0.

Em particular,  v, v = 0, logo v  =  0.

Finalmente, ξ :  E

→E∗  e sobrejetiva pois  e injetiva e os espacos

E, E∗  tem, como vimos, a mesma dimensao.

 Assim, podemos enunciar o

Teorema 11.1.   Seja  E  um espaco vetorial de dimens˜ ao finita, com

 produto interno. A correspondˆ encia   ξ :  E →   E∗  que associa a cada

 v ∈  E  o funcional linear  ξ( v) =  v∗ , tal que v∗( w) =  w, v  para todo

 w ∈ E , ´  e um isomorfismo.

O teorema acima sera usado principalmente na medida em que

assegura a existencia de ξ−1. Mais explicitamente: a todo funcional

linear   f :  E →   R   corresponde um  unico vetor   v   =   vf  ∈   E   tal que w, v   =   f( w)   para todo  w ∈   E. Um tanto informalmente: para se

conhecer um vetor  v ∈  E  basta que se conheca o produto interno de

Page 146: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 146/358

Secao 11 A Adjunta   135

todos os vetores  w ∈   E  por  v  (desde que esses produtos dependam

linearmente de w).

O Teorema 11.1  e responsavel pelo pouco (ou nenhum) uso quese faz de funcionais lineares em espacos, como  Rn, onde ha um pro-

duto interno: funcionais sao substituıdos por vetores e a acao de um

funcional sobre um vetor e substituıda por um produto interno.

De posse do Teorema 11.1, definiremos a adjunta de uma trans-

formacao linear   A :   E →   F   onde   E,   F   sao espacos vetoriais de di-

mensao finita, ambos munidos de produto interno.

 A  adjunta de  A  deve ser uma transformacao linear A∗ :  F

→E tal

que, para v

 ∈ E  e  w

∈ F  quaisquer se tenha:

Av,w =  v, A∗ w .   (*)

 Assim, a imagem  A∗ w ∈   E  de um vetor arbitrario  w ∈   F  e, por

definicao, aquele vetor de  E   tal que o produto interno de qualquer

vetor   v ∈   E  por ele  e igual a Av,w. Como, para cada   w ∈   F, o

numero   f( v) = Av,w   depende linearmente de   v   (ou seja,   f  e um

funcional linear), o Teorema 11.1 assegura que o vetor   A∗ w ∈   E

existe e  e  unico de modo que valha (*) para quaisquer  v ∈

 E, w ∈

 F.

 A correspondencia  w →   A∗ w  assim definida  e uma transformacao

linear de   F   em   E. Com efeito, dados   w, w′  ∈   F   tem-se, para todo

 v ∈ E: v, A∗( w + w′)

 =

Av,w + w′ = Av,w +

Av,w′

=  v, A∗ w + v, A∗ w′ =

 v, A∗ w + A∗ w′ .

 Assim,   A∗( w + w′)  e  A∗ w + A∗ w′   sao vetores em   E   cujos produtos

internos por qualquer vetor v ∈ E  sao iguais. Portanto A∗( w + w′) =A∗ w + A∗ w′. De modo analogo se verifica que   A∗(αw) =   α  · A∗ w.

 Assim, A∗ ∈ L(F; E).

 A   transposta   de uma matriz   a   = [aij ] ∈   M(m  × n)  e a matriz

aT  = [a ji ] ∈  M(n × m )  que tem como linhas as colunas de  a  e como

colunas as linhas de a, na mesma ordem.

Teorema 11.2.   Sejam U   =   { u 1, . . . , u  n} ⊂   E  e V   =   { v1, . . . , vm } ⊂   F

bases ortonormais. Se   a   = [aij ] ∈   M(m  × n)   ´  e a matriz da trans-

 formac ˜ ao linear A :  E → F nas bases U  , V  ent˜ ao a matriz da adjuntaA∗ :   F →   E   nas bases V  , U   ´  e a transposta  aT  = [a ji ] ∈   M(n × m )

de a.

Page 147: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 147/358

136   A Adjunta Secao 11

Demonstrac ˜ ao:  Por definicao de matriz de uma transformacao li-

near, temos

Au  j  =

m i=1

aij vi   ( j = 1, . . . , n)

e

A∗ vi  =

nr=1

bri u r,

onde  b   = [bri ] ∈   M(n × m )  e a matriz de  A∗  nas bases V , U , a ser

determinada. Como ambas as bases sao ortonormais, temos, para

cada i  =  1, . . . , m   e cada j  =  1, . . . , n:

b ji  =  u  j, A∗ vi = Au  j, vi = aij

portanto, b  =  aT , transposta de a.

Corolario.   Uma transformac ˜ ao linear   A  e sua adjunta   A∗   tˆ em o

mesmo posto.  (Vide Teorema 8.2.)

´E apresentada a seguir uma lista de propriedades operacionaisda adjunta de uma transformacao linear, as quais se traduzem em

propriedades da transposta de uma matriz, via Teorema 11.2. A va-

lidez dessas propriedades decorre da observacao de que duas trans-

formacoes lineares  A, B :  E → F  sao iguais quando se tem Au,v   =

Bu,v para quaisquer u ∈ E, v ∈ F.

I∗  = I   (In)T  = In

(A + B)∗  = A∗ + B∗   (a + b)T  = aT  + bT 

(αA)∗  = αA∗   (α a)T 

= α aT 

(BA)∗  = A∗B∗   (ba)T  = aT bT 

A∗∗  = A   (aT )T  = a

Se   A :  E →   F  e uma transformacao linear injetiva entao existe

B :  F →   E  tal que  BA   =   IE   (vide Teorema 6.5). Tomando a adjunta

de ambos os membros desta igualdade, temos   A∗B∗   =   IE. Assim

A∗ :  F

→E  possui uma inversa  a direita  B∗, logo  e sobrejetiva. (Te-

orema 6.1.) Do mesmo modo se ve que   A   sobrejetiva implica   A∗

injetiva. Portanto a adjunta de um isomorfismo  A :  E → F  e um iso-morfismo A∗ :  F→ E. Alem disso, de A−1A =  IE resulta A∗(A−1)∗  = IE

logo (A∗)−1 = (A−1)∗.

Page 148: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 148/358

Secao 11 A Adjunta   137

 Analogamente, uma matriz quadrada a  e invertıvel se, e somente

se, sua transposta   aT  e invertıvel e, no caso afirmativo,   (aT )−1 =

(a−1

)

. As nocoes de retas e planos perpendiculares da Geometria Ele-

mentar se estendem em   ´ Algebra Linear ao conceito de complemento

ortogonal, o qual ajuda a entender as relacoes entre uma transfor-

macao linear e sua adjunta.

Seja  E  um espaco vetorial com produto interno. O  complemento

ortogonal  de um conjunto nao-vazio  X ⊂ E  e o conjunto X⊥   formado

pelos vetores   v ∈   E   que sao ortogonais a todos os vetores   x ∈   X.

Portanto

 v ∈ X⊥ ⇔  v, x = 0   para todo   x ∈ X.

•   Dado X ⊂ E, temos 0, x = 0  para todo x ∈ X, logo 0 ∈ X⊥.

•   Se  v ∈ X⊥  e  α  ∈  R  entao αv,x  =  α  v, x  =  0 para todo x ∈ X,

portanto  αv ∈ X⊥.

•   Se  u  ∈ X⊥  e v ∈ X⊥  entao, para todo  x ∈ X, tem-se  u + v, x  =

 u, x +  v, x = 0, logo u + v ∈ X⊥.

Segue-se das tres observacoes acima que o complemento ortogo-

nal de qualquer conjunto nao-vazio  X ⊂  E  e um subespaco vetorial

de E.

Evidentemente, X ⊂ Y ⇒ Y ⊥ ⊂ X⊥  e v ∈ X ∩ X⊥ ⇒  v =  0.

 Alem disso, se v  e ortogonal aos vetores  x1, . . . , xm  entao v  e orto-

gonal a qualquer combinacao linear Σα ixi, pois

 v,

α ixi =

α i  v, xi =  0.

Daı resulta que o complemento ortogonal  X⊥  do conjunto X  coincide

com o complemento ortogonal S(X)⊥  do subespaco vetorial  S(X), ge-

rado por X.

Exemplo 11.1.  Tem-se {0}⊥  = E  e  E⊥  = {0}. Se F ⊂ Rn e o subespaco

vetorial gerado pelo vetor nao nulo  v  = (a1, . . . , an)  (reta que passa

pela origem), o complemento ortogonal   F⊥   e o hiperplano definido

pela equacao a1x1 + · · · + anxn  = 0.

Teorema 11.3.   Seja  E  um espaco vetorial de dimens˜ ao finita, mu-nido de produto interno. Para todo subespaco vetorial F ⊂ E  tem-se a

decomposic ˜ ao em soma direta E  =  F ⊕ F⊥.

Page 149: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 149/358

138   A Adjunta Secao 11

Demonstrac ˜ ao:   Seja   { u 1, . . . , u  n} ⊂   E  uma base ortonormal cujos

primeiros   m   elementos   u 1, . . . , u  m   formam uma base (ortonormal)

de  F. (Comeca-se com uma base qualquer de  F, estende-se-a a umabase de  E  e depois aplica-se Gram-Schmidt.) Para todo vetor  v ∈  E

tem-se v  = α 1 u 1 + · · · + α n u n  = z + w, onde z  =  α 1 u 1 + · · · + α m  u m  ∈ F

e   w   =   α m +1 u m +1  + · · ·  + α n u n ∈   F⊥. Portanto   E   =   F + F⊥. Como

F ∩ F⊥  = {0}, segue-se que E  = F ⊕ F⊥.

Corolario 1.  dim  F + dim  F⊥  = dim  E.

Corolario 2.  Para todo subespaco vetorial F⊂E , tem-se (F⊥)⊥  = F.

Com efeito, seja qual for o conjunto nao-vazio  X ⊂   E, vale a in-clusao   X ⊂   (X⊥)⊥. Em particular, o subespaco   F   esta contido em

(F⊥)⊥. Do Corolario 1 resulta que

dim(F⊥)⊥  = dim  E − dim  F⊥  = dim  E − (dim  E − dim  F) = dim  F.

Logo F  = (F⊥)⊥.

 Vimos na Secao 10 que a projecao ortogonal de um vetor  v ∈

  E

sobre um subespaco F ⊂ E  e, por definicao, o vetor

z  =  prF( v) =

m i=1

 wi, v wi, wi  wi ,

onde { w1, . . . , wm } ⊂ F  e uma base ortogonal. Vimos ainda que, pondo

 w  =  v − z , temos v  =  z  + w, com z  ∈ F e w perpendicular a todos os

 wi  (i   =   1, . . . , m  ), logo  w

 ∈  F⊥

. Ficou no ar a questao de saber ate

que ponto o vetor  z   =  prF( v)  depende da escolha da base ortogonal

 { w1, . . . , wm } ⊂  F. A resposta e dada pelo Teorema 11.3. Como  E   =

F ⊕ F⊥,  e   ´ unica   a maneira de escrever um vetor  v ∈   E  como soma

 v  =  z  +  w  de um vetor  z  ∈ F  com um vetor  w ∈ F⊥. Isto mostra que

z   =  prF( v)  nao depende da escolha dos  wi. (Veja tambem o Exercı-

cio 11.5.)

De agora em diante, indicaremos com a notacao  PF :  E

 →  E, ou

simplesmente  P :  E →   E, quando nao houver perigo de confusao, a

projecao associada a decomposicao E  =  F ⊕ F⊥, a qual chamaremos a projec ˜ ao ortogonal sobre F.

Page 150: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 150/358

Secao 11 A Adjunta   139

Teorema 11.4.  Dada a transformac ˜ ao linear A :  E

→F , entre espacos

vetoriais de dimens˜ ao finita munidos de produto interno, tem-se

 N (A∗) = I m (A)⊥,

 I m (A∗) = N (A)⊥,

 N (A) = I m (A∗)⊥   e

 I m (A) = N (A∗)⊥.

Demonstrac ˜ ao:  Basta provar a primeira dessas igualdades; as de-

mais se seguem dela usando A∗∗  = A  e  F⊥⊥  = F. Ora,

 v ∈ N (A∗)⇔ A∗ v = 0 ⇔  u, A∗ v =  0  q.q.s.  u  ∈ E⇔⇔ Au,v = 0  q.q.s.  u ∈ E ⇔  v ∈ I m (A)⊥.

Corolario 1.  A fim de que o sistema de  m  equac˜ oes lineares com  n

inc´ ognitas n j=1

aijx j  = bi   (i =  1, . . . , m  )

 possua soluc ˜ ao ´  e necess´ ario e suficiente que o vetor b  = (b1, . . . , bm ) ∈R

m   seja perpendicular a toda soluc ˜ ao   y   = ( y1, . . . , ym )   do sistema

homogˆ eneo transposto

 j=1

a ji y j  = 0   (i =  1, . . . , n).

Com efeito, pela  ultima das igualdades do Teorema 11.4, o sis-

tema  Ax  =  b  tem solucao se, e somente se,  b  e ortogonal ao nucleo

de   A∗, isto   e, a todas as solucoes   y ∈   Rm  do sistema homog eneo

A∗ y =  0.

O ponto do Corolario 1 e que ele permite concluir a existencia de

solucoes sem que seja necessario exibir uma delas.

Corolario 2.  O posto de A∗   ´  e igual ao posto de A.

Page 151: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 151/358

140   A Adjunta Secao 11

Com efeito, se dim  E =  n  entao dim N (A) + dim I m (A) = n, logo

dim I m (A∗) = n − dim N (A)= n − [n − dim I m (A)]

= dim I m (A).

Esta prova do Corolario 2  e uma alternativa para o corolario do

Teorema 11.2 sem o uso de matrizes.

Na Fig. 11.1, os pares de retas perpendiculares representam pa-res de subespacos, cada um dos quais  e o complemento ortogonal do

outro.

Figura 11.1.

Exercıcios

11.1.   Seja  A :  E → F  uma transformacao linear entre espacos veto-

riais de dimensao finita, munidos de produto interno. Prove:

(a) Se A  e sobrejetiva entao AA∗ :  F

→F  e invertıvel e

A∗(AA∗)−1 :  F→ E  e uma inversa  a direita de A.

(b) Se  A  e injetiva entao  A∗A :  E → E  e invertıvel e  (A∗A)−1 A∗   e

uma inversa  a esquerda de A.

Page 152: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 152/358

Secao 11 A Adjunta   141

11.2. Use o exercıcio anterior a fim de achar uma inversa  a direita

para a transformacao linear  A :  R3

→R

2, dada por  A(x,y,z ) = (x +

2y + 3z, 2x − y − z ) e uma inversa  a esquerda para a transformacaolinear B :  R2 → R 4, onde A(x, y) = (x + 2y,2x − y, x + 3y,4x + y).

11.3. Dada a matriz a   =

1 1 1

1 1 2

, calcule  aaT  e, a partir daı, en-

contre uma matriz b ∈ M(3 × 2) tal que ab  = I2 .

11.4. Seja P :  E → E  uma projecao num espaco vetorial de dimensao

finita, munido de produto interno. Prove que   P∗   tambem  e uma

projecao. De um exemplo em que P∗

 = P.

11.5. Seja U   =   { u 1, . . . , u  r}  uma base ortonormal do subespaco   F,

contido no espaco vetorial  E, dotado de produto interno. Usando U ,defina a aplicacao  P :  E → E, pondo, para todo  v ∈  E,  Pv  =  pr u ( v) =

ri=1

 v, u i u i . Prove que   P   e um operador linear com I m (P) =   F,

 N (P) =   F⊥   e   P2 =   P. Obtenha assim outra demonstracao de que

E =  F ⊕ F⊥. (Vide Teorema 7.2.)

11.6. Considere, no espaco vetorial   M(n × n), o produto internodefinido por

a, b =

i,j

aijbij,

se   a   = [aij ]   e   b   = [bij ]. (Vide Exercıcio 11.17.) Mostre que o

subespaco  A  das matrizes anti-simetricas  e o complemento ortogo-

nal do subespaco S  das matrizes simetricas em M(n × n).

11.7. No espaco vetorial  E  das funcoes contınuas  f : [−1, 1 ] → R, se-

 jam F, G ⊂ E  os subespacos vetoriais formados pelas funcoes pares e

pelas funcoes ımpares, respectivamente. Relativamente ao produto

interno f, g =1

−1 f(x)g(x) dx, em E, mostre que G  e o complemento

ortogonal de F.

11.8.  Se os operadores lineares  A, B :  E → E  comutam (isto  e,  AB  =

BA), prove que A∗  e B∗  tambem comutam.

11.9. Sejam { u 1, . . . , u  n} ⊂ E  e { v1, . . . , vm } ⊂ F  conjuntos de geradores

nesses espacos vetoriais com produto interno. Sejam ainda  A :  E→ Fe B :  F→ E transformacoes lineares tais que Au  j, vi =  u  j, Bvi para

i =  1, . . . , m   e  j  =  1, . . . , n. Prove que B  =  A∗.

Page 153: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 153/358

142   A Adjunta Secao 11

11.10.  Dada a matriz a ∈ M(m × n), prove que ou o sistema ax  = b

tem solucao qualquer que seja b ∈ M(m ×1) ou o sistema homog eneo

transposto  aT 

y =  0  admite uma solucao nao-trivial.11.11.   No espaco   M(n × n), munido do produto interno a, b   =

tr(aT b), (veja Exercıcio 11.17) considere uma matriz fixa  a  e defina

o operador linear T a :  M(n × n)→M(n × n) pondo T ax = ax. Mostre

que a adjunta de  T a  e  T b, onde b  =  aT . Prove um resultado analogo

para o operador  Sa :  M(n × n) →   M(n × n), onde  Sax   =   xa. (Obs.

tr(ab) = tr(ba).)

11.12.   Seja  S :  R3 → R3 a reflexao em torno do plano  z  =  0, parale-

lamente  a reta x  =  y  =  z . Determine a adjunta  S∗. Mesma questao

para a projecao  P :  R3 → R3, sobre o mesmo plano, paralelamente  a

mesma reta.

11.13.   Sejam  A, B :  E → E  operadores lineares num espaco vetorial

de dimensao finita, munido de produto interno. Prove que se B∗A  =

0 entao, para todo v ∈ E, os vetores Av  e Bv  sao perpendiculares. Em

particular, se A∗A =  0  entao A  = 0.

11.14.  Para todo conjunto nao-vazio  X  num espaco vetorial munido

de produto interno, prove que X⊥⊥  = S(X) (subespaco vetorial gerado

por X).

11.15.   Sejam  F1, F2  subespacos do espaco  E, munido de produto in-

terno. Prove que (F1 + F2)⊥  = F⊥1 ∩ F⊥2 ,  (F1 ∩ F2)⊥  = F⊥1   + F⊥2 .

11.16. De mais uma demonstracao de que A e A∗ tem o mesmo posto,

nas seguintes linhas: a afirmacao  e verdadeira quando  A :  E → F  e

injetiva ou sobrejetiva pois nestes casos A∗  e sobrejetiva ou injetiva,respectivamente. Para a conclusao no caso geral, use o fato de que

toda transformacao linear se escreve como um produto  BA, onde B  e

injetiva e A  e sobretiva. (Exercıcio 6.29.)

11.17.   Sejam  E,  F  espacos vetoriais de dimensao finita, munidos de

produto interno. Dadas as transformacoes lineares A, B :  E

→F, po-

nha A, B  = tr(A∗B) e prove que isto define um produto interno em

L(E; F). (Vide Exercıcio 8.37.) Se a  = [aij ] e  b = [bij ] sao as matrizes

de  A  e  B  em relacao a bases ortonormais de  E  e  F  respectivamente,

prove que A, B =i,j

aijbij.

Page 154: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 154/358

Secao 11 A Adjunta   143

11.18.   Prove que uma projecao  P :  E

→E, num espaco com produto

interno,  e ortogonal (isto  e, N (P) = I m (P)⊥) se, e somente se, para

todo v ∈ E  tem-se Pv,v − Pv =  0.11.19.   Use o exercıcio anterior para provar que se uma projecao

P :  E →   E   cumpre   |Pv| ≤   | v|   para todo   v ∈   E   entao   P   e ortogonal.

[Sugestao: suponha que, para algum  v ∈  E,   Pv  nao fosse ortogonal

a  v −  Pv. Tome  w  =  pe da perpendicular baixada de 0 sobre a reta

que contem  v e  Pv. Entao  | w|  <   |Pv|. Mas todos os pontos desta reta

tem a mesma imagem por  P. Logo   |Pv|  =   |Pw|  e daı   | w|  <   |Pw|, uma

contradicao.]

11.20.   Ache uma base para o complemento ortogonal do subespaco

(plano) de R3 gerado pelos vetores u  = (3, −1, 2) e  v  = (−1,2,3).

11.21.   Dado o operador   A :   R3 →   R3, definido por   A(x,y,z ) =

(x + y + z,3x − 2y − z, −2x + 3y + 2z ), obtenha bases para os seguintes

subespacos de R3: I m (A), N (A), I m (A∗) e N (A∗).

11.22.  Considere a base  { u, v, w} ⊂ R3 onde  u  = (1,1,1), v  = (1,2,3),

 w = (1, −2, 1). Determine as matrizes (na base canonica) dos funcio-

nais lineares u ∗, v∗, w∗ :  R3 → R que formam a base dual de { u, v, w}.

11.23.   Com a notacao do exercıcio anterior, a base   { u, v, w} ⊂   R3

determina um isomorfismo ψ : (R3)∗ → R3, que a cada funcional f ∈

(R3)∗ faz corresponder sua matriz (do tipo 1 ×3) na base dada. Prove

que ψ(f) = [a,b,c ] ⇔ f =  au ∗ + bv∗ + cw∗.

11.24. Demonstre que (AB)∗  = B∗A∗  e A∗∗  = A.

11.25.  Estabeleca uma conexao entre os Exercıcios 4.20 e 10.15 por

intermedio do Teorema 11.1.

11.26.   Seja   A :  E →   F  uma transformacao linear entre espacos de

dimensao finita, com produto interno. Se dim  E <  dim  F, prove que

o operador   AA∗ :  F →   F  nao  e invertıvel mas se N (A) =   {0}  entao

A∗A :  E → E  e invertıvel. De um exemplo desta situacao com E  =  R2

e F  = R3. Que se pode afirmar quando dim  E > dim  F ?

11.27.   Num espaco vetorial   E   munido de produto interno, sejam

V   =   { v1, . . . , vn}   e W   =   { w1, . . . , wn}   bases tais que  vi, w j   =   δij.(Cfr. Exercıcio 10.15.) Prove que a matriz do operador linear   A∗

na base W  e a transposta da matriz do operador  A  na base V .

Page 155: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 155/358

144   A Adjunta Secao 11

11.28. Seja a  uma matriz quadrada. Se o traco (soma dos elementos

da diagonal) de aT .a  e zero, prove que a  =  0.

11.29.   Uma matriz quadrada  a  chama-se  diagonaliz´ avel  quando  esemelhante a uma matriz  d  = [dij ] do tipo diagonal (dij  = 0  se  i = j),

ou seja, quando existe  p   invertıvel tal que  p−1ap   =   d. Prove que

se a  e diagonalizavel entao aT  tambem o e. Se a matriz do operador

A :  E→ E relativamente a uma base de E  e diagonalizavel, prove que

a matriz de A  em relacao a qualquer outra base  e diagonalizavel.

11.30.  Prove que a adjunta de  A :  E

→E, onde Av  =  v, a b,  e A∗ v =

 v, b

a.

11.31.   Seja   f∗ :  R →   E   a adjunta do funcional linear   f :   E →   R.

Prove que  v  =  f∗(1)  e o vetor de  E  que corresponde a  f  pelo isomor-

fismo do Teorema 11.1. Prove ainda que  f(f∗(1)) =   | v|2 e  f∗(f( w)) =

 w, v v   ∀ w ∈ E.

11.32.   Para toda transformacao linear  A :  E →   F, entre espacos de

dimensao finita munidos de produto interno, prove que a restricao

de  A  a imagem de  A∗  define um isomorfismo  A : I m (A∗)

→ I m (A).

 Analogamente,  A∗   transforma o subespaco I m (A)   isomorficamentesobre I m (A∗). Sao estes isomorfismos um o inverso do outro?

11.33.   Seja  { u 1, . . . , u  n} ⊂ E  uma base ortonormal. Para todo opera-

dor linear A :  E→ E, prove que

ni=1

|Au i|2 =

ni=1

|A∗ u i|2.

11.34.   Seja  J :  F →   E  a  inclus˜ ao  do subespaco  F ⊂   E, isto  e,  Jv   =   vpara todo  v ∈   F. Prove que   J∗J :  F →   F  e o operador identidade de

F  e que o operador  JJ∗ :  E →   E  e a projecao de nucleo  F⊥  e imagem

F. (Noutras palavras, a adjunta   J∗ :  E →   F  e esta mesma projecao,

porem considerada com contra-domınio F.)

Page 156: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 156/358

12

Subespacos Invariantes

Quanto menor ´  e a dimens ˜ ao do espaco E , mais f ´ acil ´  e estudar os ope-

radores lineares A :  E

→E. (Isto ´  e especialmente verdadeiro quando

dim  E   =   1   ou   dim  E   =   2.) Por isso, quando se tem um operador

A :  E → E , ´  e natural que se tente, de alguma maneira, “decompo-lo”  em operadores definidos em subespacos de dimens˜ oes menores. O

 passo inicial nessa busca ´  e a noc ˜ ao de subespaco invariante por um

operador, que estudaremos nesta sec ˜ ao. E o caso de maior ˆ exito ´  e o

dos operadores auto-adjuntos; como veremos na sec ˜ ao seguinte, todo

operador daquele tipo se decomp˜ oe em operadores uni-dimensionais.

Outros exemplos de sucesso ser˜ ao vistos nas Sec˜ oes 14 e 15. As bases

 ser ˜ ao lancadas agora.

Provaremos nesta secao (Teorema 12.1) que, dado um operadorlinear   A :  E →   E  num espaco vetorial de dimensao finita, ou bem

existe um vetor nao-nulo  u  ∈   E  tal que  Au   =   λu  ou entao existem

 u, v ∈   E   linearmente independentes tais que   Au   e   Av   sao ambos

combinacoes lineares de  u  e  v:   Au   =  αu  +  βv,  Av   =  γu  +  δv. Este

fato sera fundamental para o estudo de certos tipos particularmente

importantes de operadores, como os auto-adjuntos e os ortogonais,

que abordaremos nas secoes seguintes.

Para demonstrar o Teorema 12.1, faremos uso do chamado Teo-rema Fundamental da   ´ Algebra, do qual resulta que todo polinomio

monico real se decompoe como produto de polinomios monicos irre-

Page 157: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 157/358

146   Subespacos Invariantes Secao 12

dutıveis do primeiro e do segundo graus. (Lembramos que se chama

monico   um polinomio no qual o coeficiente do termo de mais alto

grau e igual a 1 e que um polinomio irredutıvel do segundo grau naoadmite raiz real.)

O teorema a ser demonstrado significa que existe em  E  um sub-

espaco vetorial de dimensao 1 ou 2, invariante por  A  de acordo com

a seguinte definicao.

Diz-se que um subespaco vetorial  F ⊂ E  e invariante  pelo opera-

dor linear  A :  E

→E  quando  A(F) ⊂  F, isto  e, quando a imagem  Av

de qualquer vetor v ∈ F  e ainda um vetor em  F.

Se F e um subespaco invariante do operador A :  E→ E, a restricaode  A  aos vetores de  F  define um operador que, salvo quando houver

perigo de confusao, indicaremos com a mesma notacao   A :  F →   F.

 Assim, a existencia de um subespaco invariante permite o estudo de

um operador mais simples, por estar definido num domınio menor.

Exemplo 12.1.  Os subespacos  {0} e  E  sao invariantes por qualquer

operador  A :  E

→E. O nucleo N (A) e a imagem I m (A)  sao tambem

exemplos  obvios de subespacos invariantes. Um subespaco  F  de di-

mensao 1 (reta passando pela origem)  e invariante por  A  se, e so-mente se, existe um numero λ  tal que Av  =  λv  para todo v ∈ F. [Com

efeito, fixando um vetor  u  =  0  em  F, todos os demais elementos de

F  sao da forma  αu ,   α  ∈   R. Como  Au  ∈   F, tem-se  Au   =   λu . Para

qualquer outro v ∈ F, vale v  = αu  logo Av  = αAu  = αλu  = λαu , logo

Av  =  λv, com o mesmo λ.] Se  u, v ∈ E  sao linearmente independen-

tes, o subespaco F  gerado por u  e  v  (plano contendo a origem)  e inva-

riante por A se, e somente se Au  ∈ F e  Av ∈ F, isto e, Au  =  αu  + βv

e Av  =  γu + δv.Um vetor   v   =   0   em   E   chama-se um   autovetor   do operador

A :  E→ E quando existe λ ∈ R tal que

Av =  λv.

O numero  λ ∈  R, por sua vez, chama-se um  autovalor  do operador

A  quando existe um vetor nao-nulo  v ∈   E  tal que  Av   =   λv. Diz-se

entao que o autovalor  λ  corresponde, ou pertence, ao autovetor  v  e,vice-versa, que o autovetor  v  tambem corresponde, ou pertence, ao

autovalor  λ. Entao, para todo w  =  αv, tem-se Aw  =  λw.

Page 158: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 158/358

Secao 12 Subespacos Invariantes   147

 Achar um autovetor (ou, o que  e equivalente, um autovalor) do

operador   A   e, portanto, o mesmo que achar um subespaco de di-

mensao 1 invariante por A. Analogamente, diz-se que o numero real   λ   e um   autovalor da

matriz a ∈ M(n × n) quando λ  e um autovalor do operador  A :  Rn →R

n, cuja matriz na base canonica  e  a. Isto significa que existe um

vetor x = 0  em Rn tal que Ax  =  λx  ou, o que e, o mesmo, uma matriz

nao-nula x ∈ M(n × 1) tal que ax  =  λx.

Exemplo 12.2.   Uma rotacao  R :  R2

→  R

2 em torno da origem, de

angulo diferente de 0◦  e  180◦, nao admite outros subespacos invari-

antes alem de   {0}  e  R2

. Por outro lado, para todo  α  ∈  R, a rotacaoA :  R3 → R3 de  angulo α  em torno do eixo z , definida por

A(x,y,z ) = (x cos α − y sen α, x sen α + y cos α, z ),

tem o eixo z  e o plano z  = 0  como subespacos invariantes. Para todo

z  =   0, o vetor  v   = (0,0,z )  e um autovetor de  A, cujo autovalor cor-

respondente e 1, pois Av =  v. Ja no caso de uma reflexao S :  E

→E em

torno do subespaco  F1, paralelamente a  F2   (vide Teorema 7.3), todo

vetor nao-nulo em F1  e um autovetor de S, com autovalor 1, enquantoque os vetores nao-nulos em  F2  sao autovetores correspondentes ao

autovalor  −1. Finalmente, se o operador  A   tem nucleo nao-trivial

entao todo vetor nao-nulo  v ∈ N (A)  e um autovetor pois Av  = 0 · v.

Exemplo 12.3.   O operador   A :  R2 →   R2, definido por   A(x, y) =

(x + αy, y), chama-se cisalhamento. Se  α  =  0, os  unicos subespacos

invariantes por A  sao {0}, R2 e o eixo das abcissas. Com efeito, qual-

quer outro subespaco de  R2 e uma reta  F, formada pelos multiplos

tv = (ta, tb) de um vetor v  = (a, b), com b = 0. Se t = 0  tem-se tv ∈ Fmas A(tv) = (ta + αtb, tb) = tv + (αtb,0)  /∈ F  logo F  nao e invariante

por A.

Dados o polinomio   p(x) =   a0   +  a1x  + · · ·  +  anxn e o operador

A :  E→ E, a notacao p(A) indica o operador

 p(A) = a0I + a1A + · · · + anAn.

Lema.  Para todo operador linear A :  E → E , num espaco vetorial dedimens˜ ao finita, existem um polinomio monico irredut´ ıvel p , de grau

1 ou  2 , e um vetor n ˜ ao-nulo v ∈ E , tais que p(A) · v = 0.

Page 159: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 159/358

148   Subespacos Invariantes Secao 12

Demonstrac ˜ ao:   Seja   n   =   dim  E. Como dim L(E) =   n2, os

n2 + 1   operadores  I, A, . . . , An2sao linearmente dependentes. Por-

tanto existem numeros reais  α o, . . . , α  n2 , nao todos nulos, tais queα oI + α 1A + · · ·+ α n2An2

= 0. Seja α m  o coeficiente nao-nulo de maior

ındice nesta expressao. Dividindo-a por α m , obtemos um polinomio

monico   p(x) =   βo  +  β1x  + · · ·  +  βm −1xm −1 +  xm  tal que   p(A) =   0.

Sabemos que existe uma fatoracao p(x) = p1(x) · p2(x) · · · pk (x), onde

cada  pi   e um polinomio monico irredutıvel de grau 1 ou 2. Temos

 p1(A) · p2(A) · · · pk (A) =   0. Logo, pelo menos um dos operadores

 pi(A) nao e invertıvel. Assim, existe um vetor nao-nulo v ∈ E tal que

 pi(A)· v =  0.

Teorema 12.1.   Todo operador linear num espaco vetorial de di-

mens˜ ao finita possui um subespaco invariante de dimens˜ ao 1 ou 2.

Demonstrac  ao: Dado A :  E→ E, sejam p o polinomio e v ∈ E  o vetor

nao-nulo dados pelo lema, com  p(A) ·  v   =  0. Se  p(x) =  x −  λ  entao

Av − λv   =   0, donde  Av   =   λv, logo a reta que passa pela origem e

contem v  e um subespaco invariante por A, de dimensao 1. Se p  tem

grau 2, p(x) = x2 + ax + b, entao A2 v + aAv + bv = p(A)

· v =  0, logo

A(Av) = −aAv − bv. Isto mostra que o subespaco gerado por v  e  Ave invariante por  A. Alem disso,  v  e  Av  sao L.I. pois se tivessemos

Av =  λv  entao

0 =  A2 v + aAv + bv =  λ2 v + aλv + bv = (λ2 + aλ + b) v,

donde  λ2 + aλ + b  =  0, uma contradicao pois p(x) =  x2 + ax + b  nao

tem raiz real. Logo o subespaco invariante gerado por  v  e  Av  tem

dimensao 2.Um operador linear num espaco vetorial de dimensao  n  admite

no maximo n  autovalores distintos. Isto  e consequencia do

Teorema 12.2.  A autovalores diferentes do mesmo operador corres-

 pondem autovetores linearmente independentes.

Demonstrac  ao:  Dado o operador linear  A :  E

→E, sejam v1, . . . , vm 

vetores nao-nulos em  E  tais que  Av1   =  λ1 v1, . . . , A vm   =  λm  vm , onde

os numeros reais  λ1, . . . , λm  sao dois a dois diferentes. Provaremos,por inducao, que esses vetores sao L.I. . A afirmacao e  obvia quando

m   =   1. Supondo-a verdadeira para  m  − 1  vetores, inferiremos daı

Page 160: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 160/358

Secao 12 Subespacos Invariantes   149

sua validez para m . Dada a combinacao linear nula

α 1 v

1 +

· · ·+ α 

m  v

m  = 0,   (*)

aplicamos o operador   A   a ambos os membros desta igualdade, le-

vando em conta que Avi  = λi vi. Resulta entao que

λ1α 1 v1 + · · · + λm α m  vm  = 0.   (**)

Multiplicando a igualdade (*) por  λm  e subtraindo de (**) vem:

(λ1 − λm )α 1 v1 +

· · ·+ (λm −1 − λm )α m −1 vm −1  = 0.

Pela hipotese de inducao, os vetores v1, . . . , vm −1  sao L.I. . Logo

(λ1 − λm )α 1  = · · · = (λm −1 − λm )α m −1  = 0.

Como os autovalores sao todos diferentes, as  m  − 1  diferencas nos

parenteses acima sao =   0, logo   α 1   = · · ·   =   α m −1   =   0. Isto reduz

a igualdade (*) a   α m  vm   =   0. Como  vm  =   0, segue-se que  α m   =   0.

 Assim, a igualdade (*) so pode ocorrer quando todos os coeficientes

α i  sao nulos, o que prova o teorema.

Corolario.  Seja dim  E = n. Se um operador linear A :  E→ E possui

n  autovalores diferentes ent˜ ao existe uma base   { v1, . . . , vn} ⊂   E   em

relac ˜ ao a qual a matriz de A  ´  e diagonal (isto ´  e, tem a forma [aij ] com

aij  = 0  se  i = j ).

Com efeito, se  Av1   =  λ1 v1, . . . , A vn   =  λn vn  com os  vi  nao-nulos e

os λi dois a dois distintos entao { v1, . . . , vn}  e, em virtude do Teorema

12.2, uma base de  E. A matriz de  A  nesta base e

λ1

λ2

. . .

λn

na qual os termos que nao aparecem sao iguais a zero.

 A igualdade   Av   =   λv   equivale a   (A  −  λI) v   =   0, logo   v   e umautovetor do operador   A :  E →   E  se, e somente se,  e um elemento

nao-nulo do nucleo N (A  −  λI). Noutras palavras, a fim de que   λ

Page 161: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 161/358

150   Subespacos Invariantes Secao 12

seja um autovalor de   A   e necessario e suficiente que o operador

A − λI :  E

→E nao possua inverso.

Exemplo 12.4.   Um caso particular importante ocorre quandodim  E   =   2. Vimos no Exemplo 2.6 que se   { u, v} ⊂   E   e uma base

entao os vetores αu  + βv  e  γu  + δv  sao linearmente dependentes se,

e somente se,   αδ  − βγ   =   0. Dados o operador  A :  E →   E  e a base

 { u, v} ⊂ E, sejam Au  = au  + cv  e Av  = bu  + dv. Noutras palavras, a

matriz do operador A  na base { u, v}  e

a b

c d .

Entao (A − λI) u  = (a − λ) u + cv e  (A − λI) v =  bu + (d − λ) v. A fim de

que A − λI nao seja invertıvel e necessario e suficiente que os vetores

(A − λI) u  e  (A − λI) v sejam L.D., ou seja, que (a − λ)(d − λ) − bc =  0,

ou ainda, que λ  seja raiz do polinomio

 p(λ) = λ2 − (a + d)λ + ad − bc,

chamado o polinomio caracter´ ıstico do operador A

.

Portanto, o numero real λ  e um autovalor do operador  A :  E → E,

onde dim  E   =   2, se, e somente se,  e uma raiz do polinomio carac-

terıstico do operador A, o qual, por definicao, e p(λ) = λ2 − (a + d)λ +

ad−bc. Os coeficientes de p(λ) sao tirados da matriz de A em relacao

a uma base qualquer de E.

Observac ˜ ao.   A matriz do operador   A   muda quando se passa de

uma base para outra. Mas o polinomio  p(λ)   (isto  e, as expressoes

a + d e  ad − bc, que sao seus coeficientes) permanece (isto e, perma-necem) sem alteracao. Isto sera provado na Secao 20. No presente

caso  (dim  E  =  2),  e claro que  a + d  =  traco de  A, logo independe da

base escolhida. Quanto ao coeficiente ad  − bc  (o determinante da

matriz a  =

a b

c d

), vide o Exercıcio 12.7.

Exemplo 12.5.  No caso da rotacao  R :  R2

→R

2,  R(x, y) = (x cos  θ −

 y sen  θ, x sen  θ +  y cos  θ), temos  a   =  cos  θ,  b   = − sen  θ,  c  =  sen  θ,

d =  cos  θ, logo o polinomio caracterıstico de R  e

 p(λ) = λ2 − (2 cos  θ)λ + 1.

Page 162: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 162/358

Secao 12 Subespacos Invariantes   151

Se  θ =  0  e  θ =  180◦, o trinomio  p(λ)  nao possui raiz real pois neste

caso seu discriminante  ∆   =   4(cos2 θ −  1)  e negativo. Consequente-

mente R  so possui autovalores (reais) se θ  =  0  ou  θ  =  180◦.Exemplo 12.6.  Definamos o operador  A :  R2 → R

2 pondo  A(x, y) =

( 4x +  3y, x +  2y). Seu polinomio caracterıstico  e  p(λ) =  λ2 − 6λ  +  5,

cujas raızes sao λ1  = 1  e λ2  = 5. Estes numeros sao autovalores de A.

Existem, portanto, vetores nao-nulos v1 e  v2 em R2, tais que Av1  = v1

e Av2  = 5v2. Pelo Teorema 12.2,  v1  e v2  formam uma base de  R2, em

relacao  a qual a matriz do operador  A  tem a forma diagonal:

a =1 0

0 5

 A fim de determinar os vetores v1  = (x, y) e  v2  = (r, s) exprimimos as

igualdades  Av1  = v1  e Av2  = 5v2  em termos de coordenadas, obtendo

os sistemas lineares

 4x + 3y =  x

x + 2y =  y

e

 4r + 3s =  5r

r + 2s =  5s.

 Ambos os sistemas acima sao indeterminados, e tinham que ser

assim pois se  v  e autovetor de  A, todo multiplo  αv   tambem  e. To-

mando uma solucao nao-nula de cada um desses sistemas obtemos

 v1  = (1, −1), v2  = (3, 1) tais que  { v1, v2} ⊂ R2 e uma base formada por

autovetores de A.

Exercıcios

12.1.  Suponha que o operador linear A :  E→ E, num espaco vetorial

de dimensao  n, admita um subespaco invariante  F, de dimensao  r.

Prove que existe uma base de  E, relativamente a qual a matriz de A

tem a forma   a b

0 c

,

Page 163: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 163/358

152   Subespacos Invariantes Secao 12

com   a ∈   M(r ×  r),   b ∈   M(r × (n − r)),   0 ∈   M((n  − r) × r)   e   c ∈M((n − r) × (n − r)).

12.2. Enuncie e prove um resultado analogo ao do exercıcio anterior,supondo que E  =  F ⊕ G, onde F  e  G  sao invariantes pelo operador A.

12.3. De exemplo de um operador linear A :  R3 → R3 que admite um

subespaco invariante  F ⊂  R3 com a seguinte propriedade: nenhum

subespaco G ⊂ R3 tal que R3 = F ⊕ G  e invariante por A.

12.4. Dado o vetor nao-nulo   a ∈   R3, determine os subespacos de

R3 invariantes pelo operador  A :  R3

→ R3, definido por  Av   =   a ×  v

(produto vetorial: veja Exercıcio 10.27).12.5. Sejam  A, B :  E →   E   operadores lineares. Se  AB   =   BA, prove

que N (B) e I m (B) sao subespacos invariantes por  A.

12.6. Dado o operador linear  A :  E →   E  e o polinomio   p(x), prove

que os subespacos vetoriais N ( p(A))   e I m ( p(A))   sao invariantes

por A.

12.7. Um operador  A :  E

→E  chama-se normal quando AA∗  = A∗A.

Prove que se  A  e normal entao, para todo v ∈

 E, tem-se  |Av|  =   |A∗ v|

e conclua daı que todo auto-vetor de  A  e tambem auto-vetor de  A∗,

com o mesmo auto-valor. (Sugestao: se A  e normal, A−λI tambem e.)

12.8. Se o operador A  e normal, prove que N (A)⊥  = I m (A).

12.9. Seja P :  R3 → R3 uma projecao de posto 2. Prove que os  unicos

subespacos de   R3 invariantes por   P   estao contidos na imagem ou

contem o nucleo de P. E se o posto de  P  for igual a 1 ?

12.10. Mostre que os subespacos vetoriais de C∞(R,R) gerados por

cada um dos conjuntos abaixo sao invariantes pelo operador de de-

rivacao D :  C∞(R,R)→ C∞(R,R).

(a)   {cos  x, sen  x};

(b)   {ex, xex, x2ex}.

12.11. Se   F ⊂   R3 e um subespaco de dimensao 2, invariante pelo

operador linear   A :  R3

→  R

3, e   A   nao possui auto-vetores em   F,

prove que nenhum subespaco de dimensao 2, alem de F,  e invariante

por A.

12.12. Dado o operador linear   A :  E →   E   num espaco vetorial de

dimensao 3, prove que existe uma base de  E  relativamente  a qual a

Page 164: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 164/358

Page 165: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 165/358

154   Subespacos Invariantes Secao 12

12.20.   Dado o operador linear  A :  E

→E, suponha que  E  =  F1 ⊕ F2,

onde Av1  = λ1 v1 se v1 ∈ F1 e Av2  = λ2 v2 se  v2 ∈ F2, com λ1 = λ2. Prove

que λ1  e λ2  sao os  unicos autovalores de A  e que os autovetores de Aestao em F1  ou em F2.

12.21.   Seja   A :  Rn →   Rn o operador linear cuja matriz na base

canonica tem todos os elementos iguais a 1. Prove que o posto de

A  e igual a 1 e que Rn = N (A) ⊕ I m (A). Conclua que os autovalores

de A sao 0 e n e que seus autovetores pertencem a N (A) ou a I m (A).

Exiba uma base de Rn na qual a matriz de A  tem  n2 − 1 zeros.

12.22.   Se todo vetor nao-nulo de   E   for um autovetor do operadorlinear A :  E→ E, prove que A  =  λI.

12.23.   Para todo autovalor   λ   do operador linear   A :  E →   E, seja

Eλ   =   { v ∈   E; Av   =   λv}. Prove que  Eλ  e um subespaco vetorial de  E,

invariante por  A. (Eλ   chama-se  auto-subespaco  correspondente ao

autovalor  λ.)

12.24.   Prove que um subespaco que contem o nucleo de uma proje-

cao e invariante por essa projecao.

12.25.   Se   AB   =   BA, prove que a imagem por  B  de um subespaco

invariante por A  e ainda invariante por  A.

12.26.   Seja  A :  E → E  um operador linear tal que  A2 possui algum

autovalor ≥   0. Prove que  A   possui autovetor. De um exemplo em

que A2 possui autovetor mas A  nao possui.

12.27.  Se os autovetores do operador linear A :  E→ E geram o espacoE e, alem disso, os subespacos invariantes por A  sao tambem invari-

antes por B, prove que AB  =  BA.

12.28.   Seja dim  E   =   n. Se o operador linear   A :  E →   E   possui   n

autovalores distintos, prove que existem no espaco E  exatamente 2n

subespacos invariantes por A.

12.29. Seja A :  E→ E um operador no espaco vetorial E, de dimensao

finita, onde E  =  F1 ⊕ · · · ⊕ Fk  e cada Fi  e invariante por A. Tome umabase V ⊂  E  que seja uma uniao de bases dos  Fi. Determine a forma

da matriz de A  na base V .

Page 166: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 166/358

Secao 12 Subespacos Invariantes   155

12.30.   Seja   A :  R2

→  R

2 o operador definido por   A(x, y) = ( y, 0).

Quais sao os autovalores de  A ? E os autovetores? Se a   = 0 1

0 0,

existe alguma matriz invertıvel p ∈ M(2×2) tal que p−1ap seja uma

matriz diagonal?

12.31.   Seja   A :  R2 →   R2 o operador definido por   A(x, y) = (2x  −

 y, x + 4y). Mostre que A  possui um autovalor  unico igual a 3 e que o

auto-subespaco E3  (v. Exercıcio 12.23) tem dimensao 1. Conclua que

se

a = 2   −1

1 4

entao nao existe uma matriz invertıvel  b ∈ M(2 × 2) tal que  b−1ab

seja diagonal.

12.32.   Seja   A :  R2 →   R2 o operador definido por   A(x, y) = (3x  +

 y, 2x + 2y). Mostre que A possui os autovalores 4 e 1. Ache uma base

 { u, v} ⊂ R2 tal que Au  =  4u  e  Av  =  v. Dada a matriz

a = 3 1

2 2 ,

ache uma matriz invertıvel p ∈ M(2 × 2) tal que p−1ap =

 4 0

0 1

.

12.33.  Prove que todo operador linear de posto 1 em  Rn possui um

autovetor cujo autovalor correspondente e o traco do operador dado.

12.34.   Seja   p   um polinomio =   0   cujas raızes sao todas reais. Se

 p(A) = 0, prove que pelo menos uma raiz de  p  e autovalor do opera-

dor A.

12.35.  Se o espaco vetorial  E  possui uma base formada por autove-

tores do operador  A :  E → E, prove que existe tambem uma base de

E formada por autovetores de  A∗ :  E→ E. (Veja Exercıcio 11.29.)

12.36.  Sejam A :  E→ E um operador linear num espaco de dimensao

finita, munido de produto interno e  F ⊂  E  um subespaco invariante

por A. Defina o operador B :  F → F pondo Bv  = Av. Mostre que, para

todo v ∈ F, se tem A∗ v =  B∗ v + Cv, com Cv ∈ F⊥.

Page 167: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 167/358

Page 168: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 168/358

Page 169: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 169/358

158   Operadores Auto-Adjuntos Secao 13

ambas simetricas. Quanto ao Exemplo 13.2, se tomarmos em  E  uma

base ortonormal cujos primeiros  m  elementos formem uma base de

F  e os  ultimos uma base de  F⊥, a matriz da projecao  P  nesta basetera os m  primeiros termos da diagonal iguais a  1  e todos os demais

elementos iguais a zero. Seu formato sera

1

1. . .

1

0 . . .

0

,

onde os termos fora da diagonal, nao indicados acima, sao todos ze-

ros. Essas matrizes sao simetricas, refletindo o fato de que represen-

tam operadores auto-adjuntos em bases ortonormais. Ja o operador

A  no Exemplo 12.6 nao  e auto-adjunto pois na base canonica de  R2

sua matriz e 4 31 2

.

Teorema 13.2  Seja  A :  E →   E   um operador auto-adjunto. Se o su-

bespaco   F ⊂   E   ´  e invariante por   A , seu complemento ortogonal   F⊥

tamb´  em ´  e.

O Teorema 13.2 decorre imediatamente do

Teorema 13.3  Se o subespaco  F

 ⊂  E   ´  e invariante pelo operador li-

near A :  E→ E ent ˜ ao seu complemento ortogonal F⊥   ´  e invariante pelooperador adjunto A∗ :  E→ E.

Demonstrac  ao:   [ u  ∈  F, v ∈   F⊥ ] ⇒ Au  ∈   F ⇒  u, A∗ v   = Au,v   =

0⇒ A∗ v ∈ F⊥, logo F⊥  e invariante por A∗.

Exemplo 13.4.   No cisalhamento   A :  R2 →   R2, onde   A(x, y) =

(x  +  αy,y), com   α  =   0, o eixo   x, das abcissas,   e invariante mas

seu complemento ortogonal, o eixo   y, das ordenadas, nao   e pois

Ae2  = (α, 1) nao e vertical.No caso de um operador auto-adjunto, o Teorema 12.2 assume a

forma mais precisa seguinte.

Page 170: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 170/358

Page 171: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 171/358

160   Operadores Auto-Adjuntos Secao 13

Teorema 13.5.   Seja   A :   E

 →  E   um operador auto-adjunto num

 espaco vetorial de dimens˜ ao   2 , munido de produto interno. Existe

uma base ortonormal { u 1, u 2} ⊂ E  formada por autovetores de A.Demonstrac ˜ ao:   Seja   { v, w} ⊂   E  uma base ortonormal arbitraria.

Em virtude do Teorema 13.1, temos   Av   =   av  +  bw,   Aw   =   bv  +

cw. Como vimos antes no Exemplo 12.4, os autovalores de   A   sao

as raızes reais do polinomio caracterıstico p(λ) = λ2 − (a + c)λ + ac −

b2. O discriminante deste trinomio  e  ∆   = (a +  c)2 − 4(ac  − b2) =

(a −  c)2 + 4b2 ≥  0. Se  ∆  =  0  entao  b  =  0,  a  =  c e  A  =  aI, logo todo

vetor nao-nulo em E  e um autovetor. Se ∆ > 0 entao o trinomio p(λ)

possui 2 raızes reais distintas λ1, λ2. Isto, como sabemos, quer dizerque os operadores  A − λ1I  e  A − λ2I  sao ambos nao invertıveis, logo

existem vetores nao-nulos (que podemos supor unitarios)  u 1, u 2 ∈  E

tais que   (A − λ1I) u 1   =   0  e   (A − λ2I) u 2   =   0, ou seja,   Au 1   =   λ1 u 1   e

Au 2  = λ2 u 2. Pelo Teorema 13.4,  { u 1, u 2} ⊂ E  e uma base ortonormal

de autovetores de A.  

Corolario. Todo operador auto-adjunto A :  E

→E , num espaco veto-

rial de dimens˜ ao finita com produto interno, possui um autovetor.

Com efeito, pelo Teorema 12.1 existe um subespaco   F ⊂   E, dedimensao 1 ou 2, invariante por A. Se dim F =  1  todo vetor nao-nulo

 v ∈ F  e um autovetor de  A. Se dim F = 2  entao, aplicando o Teorema

13.5  a restricao  A :  F → F  de  A  ao subespaco invariante  F, obtemos

um autovetor v ∈ F.  

Teorema 13.6. (Teorema Espectral.)  Para todo operador auto-

adjunto A :  E

→E , num espaco vetorial de dimens˜ ao finita munido

de produto interno, existe uma base ortonormal  { u 1, . . . , u  n}

 ⊂ E  for-

mada por autovetores de A.

Demonstrac ˜ ao:  Usaremos inducao na dimensao de E. O teorema e

evidente se dim E   =   1. Supondo-o verdadeiro em dimensao  n − 1,

seja dim  E   =   n. Pelo Corolario do Teorema 13.5, existe um au-

tovetor unitario   u n, portanto um subespaco   F  ⊂   E, de dimensao

1, invariante por  A. Pelo Teorema 13.2, o complemento ortogonal

F⊥   tambem   e invariante por   A. Como dim  F⊥   =   n  −  1, a hi-

potese de inducao assegura a existencia de uma base ortonormal

 { u 1, . . . , u  n−1} ⊂   F⊥   formada por autovetores da restricao   A :  F⊥ →F⊥. Segue-se que  { u 1, . . . , u  n−1, u n} ⊂  E  e uma base ortonormal for-

mada por autovetores de A.

Page 172: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 172/358

Secao 13 Operadores Auto-Adjuntos   161

Observac ˜ ao. Vale a recıproca do Teorema Espectral: se existe uma

base ortonormal { u 1, . . . , u  n} ⊂ E  formada por autovetores do opera-

dor  A :  E → E  entao este operador  e auto-adjunto. Com efeito, paraquaisquer  i, j =  1, . . . , n, tem-se

Au i, u  j = λi u i, u  j =  λiδij  = λ jδij  =  u i, λ j u  j =  u i, Au  j

e daı resulta que Au,v =  u, Av para quaisquer u, v ∈ E.

Diremos que o operador linear  A :  E → E  e n ˜ ao-negativo, e escre-

veremos A ≥ 0, quando A  for auto-adjunto e, alem disso, Av,v ≥ 0

para todo  v

 ∈  E. No caso particular em que

 Av,v

  > 0  para todo

 v = 0, diremos que A  e um operador positivo e escreveremos A > 0.

Teorema 13.7.  Um operador auto-adjunto A :  E → E  ´  e n ˜ ao-negativo

 se, e somente se, seus autovalores s ˜ ao todos ≥   0.   A   ´  e positivo se, e

 somente se, todos os seus autovalores s ˜ ao n ´ umeros positivos.

Demonstrac ˜ ao:  Se A ≥ 0  e  Av  = λv  com  v = 0  entao

λ  v, v = λv,v = Av,v ≥ 0,

portanto   λ ≥   0. Reciprocamente, se os autovalores de   A   sao ≥   0,

seja  { u 1, . . . , u  n} ⊂ E  uma base ortonormal formada por autovetores

(a qual existe pelo Teorema Espectral), com  Au i   =  λi u i. Para todo

vetor v ∈ E, tem-se v  =  α 1 u 1 + · · · + α n u n, logo

Av,v = Σα iAu i, Σα  j u  j  = Σα iλi u i, Σα  j u  j =  Σλiα 2i .

Como  λi ≥   0   para   i   =   1, . . . , n, segue-se que Av,v ≥   0, portanto

A ≥  0. A afirmacao sobre operadores positivos se prova da mesmamaneira.

Corolario 1.   Seja  A ≥  0. Se, para um certo  v ∈  E , vale Av,v  =  0

 ent ˜ ao Av  =  0.

Com efeito, sejam λ1,...,λk  os autovalores nao-nulos de A. Entao,

pondo v  =  α 1 u 1 + · · · + α n u n, resulta que Av  =  λ1α 1 u 1 + · · · + λk α k  u k ,

donde

0 =

Av,v

= λ1α 2

1

 +

· · ·+ λk α 2

.

Como  λ1  > 0, . . . , λk   > 0, segue-se que  α 1   = · · ·   =   α k   =   0, portanto

Av = 0.

Page 173: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 173/358

162   Operadores Auto-Adjuntos Secao 13

Observac ˜ ao.  Geometricamente, A ≥ 0 significa que o  angulo entre

 v   e   Av   (caso estes vetores sejam =   0)  e sempre agudo ou reto. O

Corolario 1 diz que, quando  Av = 0, esse  angulo  e sempre agudo.Corolario 2.  Um operador ´  e positivo se, e somente se, ´  e n ˜ ao-negativo

 e invert´ ıvel.

Com efeito, se  A ≥   0  e invertıvel entao, para todo  v =   0  tem-se

Av = 0  logo, pelo Corolario 1, Av,v > 0. A recıproca  e  obvia.

Uma matriz quadrada  a  = [aij ] ∈ M(n × n) diz-se n ˜ ao-negativa,

e escreve-se  a ≥  0, quando o operador  A :  Rn

→R

n, cuja matriz na

base canonica  e a,  e nao-negativo.Dado  v  = (x1, . . . , xn) ∈  Rn, tem-se  Av   = ( y1, . . . , yn)  onde, para

cada i  =  1, . . . , n, yi  = ai1x1 + ai2x2 + · · · + ainxn. Logo

Av,v =

ni=1

xi yi  =

ni,j=1

aijxix j .

Portanto a matriz a  = [aij ] ∈ M(n × n)  e nao-negativa se, e somente

se, e simetrica e, para todo  v  = (x1, . . . , xn)

 ∈R

n tem-se

ni,j=1

aijxix j ≥ 0.

 Analogamente, a matriz   a   diz-se   positiva   quando o operador

A :  Rn →   Rn, que a ela corresponde,  e positivo. Isto significa que

a  e simetrica e, para todo  v  = (x1, . . . , xn) = 0  em Rn, tem-se

ni,j=1

aijxix j  > 0.

 Assim uma matriz simetrica  e nao-negativa (respect. positiva)

se, e somente se, seus autovalores sao ≥ 0  (respect. positivos).

Exemplo 13.5.   O polinomio caracterıstico da matriz simetrica

a =

a b

b c

 e p(λ) = λ2 − (a + c)λ + ac − b2. A soma de suas raızes e

a+c e o produto e ac −b2. As raızes de p(λ) sao ambas positivas se, esomente se ac −b2 > 0 e a > 0 (ou c > 0). Com efeito, ac −b2 > 0 (isto

e, ac > b2) diz que essas raızes tem o mesmo sinal. De a > 0 tiramos

Page 174: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 174/358

Secao 13 Operadores Auto-Adjuntos   163

c > b2/a > 0, logo  a +  c > 0  e o sinal comum das raızes  e positivo.

Portanto as condicoes a > 0 e  ac − b2 > 0 (ou  c > 0 e  ac − b2 > 0) sao

necessarias e suficientes para que a matriz simetrica a seja positiva.Para que se tenha  a ≥   0  e necessario e suficiente que  ac −  b2 ≥  0,

a ≥  0  e  c ≥  0. Assim, por exemplo, a matriz

 1   −1

−1 2

 e positiva e

1 1

1 1

 e nao-negativa.

Um operador   X :   E →   E   chama-se   raiz quadrada   do operador

A :  E

→E quando X2 = A.

Para uso na demonstracao do Teorema 13.8, apresentaremos

uma nocao que tem outras aplicacoes.

Se λ  e um autovalor do operador A :  E→ E, o conjunto

Eλ  = { v ∈ E; Av = λv}

e um subespaco vetorial de  E, invariante por  A, chamado um  auto-

 subespaco. Restrito a Eλ, o operador A  e simplesmente a multiplica-

cao por  λ. Assim, todo vetor nao-nulo em  Eλ  e um autovetor de  A,

com autovalor λ.Quando A  e auto-adjunto e λ1, . . . , λr sao seus autovalores distin-

tos  entao, pelo Teorema 13.4, para   i =   j, todo vetor em  Eλi   e orto-

gonal a qualquer vetor em Eλj . Alem disso, pelo Teorema Espectral,

todo vetor  v ∈   E  se escreve, de modo  unico, como  v   =   v1  + · · · + vr,

onde  v1 ∈  Eλ1 , . . . , vr ∈  Eλr , ou seja,  E  e  soma direta  dos subespacos

Eλ1 , . . . , Eλr .

Teorema 13.8.  Todo operador n˜ ao-negativo A :  E → E , num espaco

vetorial de dimens˜ ao finita munido de produto interno, possui uma´ unica raiz quadrada n˜ ao-negativa, a qual ´  e positiva se, e somente se,

A  ´  e positivo.

Demonstrac ˜ ao:   Sejam  λ1 ≥   0, . . . , λr ≥   0  os autovalores distintos

de A. Todo vetor v ∈ E  se escreve, de modo  unico, como v  = v1 + · · · +

 vr, onde v1 ∈ Eλ1 , . . . , vr ∈ Eλr , logo Av = λ1 v1 + · · · + λr vr. Definimos

o operador linear B :  E

→E pondo

Bv = 

λ1 · v1 + · · · + 

λr · vr.

Se  w   =   w1  + · · · + wr  com  w1 ∈  Eλ1 , . . . , wr ∈  Eλr   entao  vi, w j   =   0

Page 175: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 175/358

164   Operadores Auto-Adjuntos Secao 13

para i = j, portanto

Bv,w =

ri=1

 λi  vi, wi =  v, Bw   e   Bv,v =

ri=1

 λi| vi|2.

Logo B e um operador nao-negativo. Alem disso, e claro que B2 v =  Av

para todo v ∈ E, logo  B  e uma raiz quadrada de  A. Para provar que

e  unica a raiz quadrada nao-negativa de  A, comecamos observando

que toda raiz quadrada de  A  comuta com  A. Com efeito, se  C2 =  A

entao  AC   =   C2C   =   CC2 =   CA. A observacao seguinte  e que se  C

comuta com A  entao cada um dos auto-subespacos de A  e invariante

por C. Com efeito,

 v ∈ Eλi ⇒ Av =  λi v⇒ A(Cv) = C(Av) = C(λi v) = λi(Cv),

logo Cv ∈ Eλi .

Mais uma observacao: se C  e uma raiz quadrada nao-negativa

de  A  entao, para cada  i  =  1, . . . , r, o  unico autovalor da restricao de

C a  Eλi  e√ 

λi. Com efeito, se w ∈ Eλi  e autovetor de C, digamos com

Cw = γ · w, entao λi w = Aw = C2

 w = γ2

· w, logo λi  = γ2

e γ = √ λi. Agora o argumento final: seja C  uma raiz quadrada nao-negativa de

A. Cada auto-subespaco Eλi  e invariante pelo operador auto-adjunto

C  e o  unico autovalor de  C  em  Eλi   e√ 

λi. Logo Cw   =√ 

λi · w  para

todo w ∈ Eλi . Entao, dado v  =  v1 + · · · + vr, com v1 ∈ Eλ1 , . . . , vr ∈ Eλr ,

tem-se

Cv = 

λ1 · v1 + · · · + 

λr · vr

portanto  C  coincide com o operador  B  acima definido. A afirmacao

sobre a positividade da raiz quadrada  e  obvia.

Observac ˜ ao 1:  Um dos argumentos acima usados permite mostrar

que se dois operadores auto-adjuntos  A,  B  comutam entao eles tem

um autovetor comum. Com efeito, seja λ1  um autovalor de A. Como

vimos acima, a hipotese  AB   =   BA   implica que o subespaco   Eλ1   =

 { v ∈   E; Av   =   λ1 v}   e invariante por   B. Pelo corolario do Teorema

13.5, o operador auto-adjunto  B  possui um autovetor  w ∈  Eλ1 . Mas

todo vetor nao-nulo em   Eλ1   e autovetor de   A. Logo  w  e autovetor

comum de  A  e  B. Usando repetidamente o Teorema 13.2 conclui-seentao que se dois operadores auto-adjuntos comutam entao existe

uma base ortonormal formada por autovetores de ambos.

Page 176: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 176/358

Secao 13 Operadores Auto-Adjuntos   165

Observac ˜ ao 2:   Somente operadores nao-negativos possuem raiz

quadrada auto-adjunta, pois resulta imediatamente da definicao de

A∗   que o quadrado de um operador auto-adjunto  e nao-negativo.Entretanto, o quadrado de um operador de outro tipo pode ser um

operador (auto-adjunto) negativo. Por exemplo, a rotacao de  90◦  no

plano tem quadrado igual  a rotacao de 180◦, que e igual a  −I. Alem

disso, um operador positivo pode ter uma raiz quadrada que nao

e auto-adjunta. Por exemplo, o operador  A :  R2 →  R2, definido por

A(x, y) = (2x − y, 3x − 2y)  e uma raiz quadrada da identade  IR2 , como

se pode ver sem dificuldade.

Exemplos gerais de operadores nao-negativos sao dados pelo te-

orema seguinte.

Teorema 13.9.   Seja   A :   E →   F   uma transformac ˜ ao linear entre

 espacos vetoriais de dimens˜ ao finita munidos de produto interno. Os

operadores  A∗A :  E →   E  e  AA∗ :  F →   F  s ˜ ao n˜ ao-negativos e tˆ em am-

bos o mesmo posto de  A  (e de  A∗ ). Em particular, s ˜ ao positivos se, e

 somente se, A  ´  e invert´ ıvel.

Demonstrac ˜ ao:   Como   (A∗A)∗   =   A∗A∗∗   =   A∗A, vemos que  A∗A  e

auto-adjunto e, semelhantemente,  AA∗   tambem. Alem disso, paratodo  v ∈   E, tem-se A∗Av,v   = Av, Av   =   |Av|2 ≥   0   logo  A∗A ≥   0.

Da mesma forma se ve que  AA∗ ≥   0. Para determinar o posto de

A∗A, mostraremos inicialmente que N (A∗A) = N (A). A inclusao

 N (A) ⊂ N (A∗A)  e  obvia, pois N (A) ⊂ N (BA) seja qual for B :  F→ E.

Por outro lado,

 v ∈ N (A∗A)

⇒A∗Av =  0

⇒ Av ∈ N 

(A∗) = I 

m (A)⊥⇒ Av ∈ I m (A) ∩ I m (A)⊥,

logo   v ∈ N (A∗A) ⇒   Av   =   0, ou seja N (A∗A) ⊂ N (A), que  e a

inclusao restante. Em seguida observemos que, pelo Teorema do

Nucleo e da Imagem:

posto de A∗A =  dim  E − dim N (A∗A)

= dim  E − dim

 N (A)

=   posto de A.

 A afirmacao analoga sobre AA∗  se prova do mesmo modo.

Page 177: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 177/358

166   Operadores Auto-Adjuntos Secao 13

Corolario. A transformac ˜ ao linear A :  E

→F  ´  e injetiva se, e somente

 se, A∗A  ´  e invert´ ıvel.  A  ´  e sobrejetiva se, e somente se, AA∗   ´  e invert´ ıvel.

Com efeito,  A   injetiva ⇔ posto de  A  =  dim  E ⇔ posto de  A∗A  =dim  E⇔ A∗A invertıvel. Mesmo argumento para AA∗.

Observac ˜ ao:   O Teorema 13.9 e seu corolario podem ser enuncia-

dos em termos de matrizes, substituindo-se   A   por   a   e   A∗   por   aT .

Nesta formulacao, dizer que  A  e injetiva equivale a afirmar que o

posto da matriz  a ∈   M(m  × n)  e igual a  n. Analogamente,   A  ser

sobrejetiva equivale  a matriz  a  ter posto  m . Qualquer destas duas

hipoteses sobre  A, quando formulada em termos de matrizes, pode

ser expressa na afirmacao  unica de que  a tem posto m´ aximo, isto  e,o posto de  a ∈   M(m  × n)  e o menor dos dois numeros  m  e  n. Na

pratica, quando quisermos um exemplo de matriz positiva ou nao-

negativa, tomamos uma matriz  a  de posto maximo e consideramos

as matrizes simetricas  aaT  e  aT a. A maior delas  e ≥   0  e a menor

e > 0.

Exemplo 13.6.  Seja a  = 1 2 3

 4 5 6. Entao as matrizes

aaT  =

14 32

32 77

  e   aT a =

17 22 27

22 29 36

27 36 45

,

ambas de posto 2, sao positiva e nao-negativa, respectivamente.

 A seguir, uma extensao do Teorema Espectral, valida para trans-

formacoes lineares quaisquer.

Teorema 13.10. (Teorema dos Valores Singulares.) Seja A :  E→Fuma transformac ˜ ao linear de posto r entre espacos de dimens˜ ao finita

com produto interno. Existem bases ortonormais  { u 1, . . . , u  n} ⊂   E  e

 { v1, . . . , vm } ⊂   F   tais que  Au i   =   σi vi ,   A∗ vi   =   σi u i , com  σi   > 0   para

i =  1, . . . , r  e  Au i  = 0 , A∗ vi  = 0  se  i > r.

Demonstrac  ao:  Pelo Teorema 13.9, o operador  A∗A :  E → E  e nao-

negativo e tem posto  r. O Teorema Espectral assegura a existencia

de uma base ortonormal  { u 1, . . . , u  n}

 ⊂ E tal que A∗Au i  =  σ2

i u i, com

σi  > 0 se  1 ≤ i ≤ r  e  σi  = 0  se  r + 1 ≤ i ≤ n. Entao

Au i, Au  j =  u i, A∗Au  j = σ2 j  u i, u  j.

Page 178: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 178/358

Secao 13 Operadores Auto-Adjuntos   167

 Assim, os vetores   Au 1, . . . , A u  r   sao dois a dois ortogonais, e nao-

nulos pois

|Au i|

2

= σ

2

i | u i|

2

,logo  |Au i|  =  σi. (Na realidade, a prova do Teorema 13.9 mostra que

 N (A) = N (A∗A), portanto Au  j  = 0  se  r  + 1 ≤ j ≤ n.) Podemos entao

escrever, para   i   =   1, . . . , r,   Au i   =   σi vi, onde   { v1, . . . , vr} ⊂   F   e um

conjunto ortonormal, de fato uma base ortonormal de I m (A), a qual

pode ser completada a uma base ortonormal   { v1, . . . , vm } ⊂   F, onde

 { vr+1, . . . , vm }  e uma base ortonormal de N (A∗). Tem-se A∗ vi   =  0  se

i > r e, para i  = 1, . . . , r:

A∗ vi  =   1σi

A∗Au i  =   1σi

σ2i u i  = σi u i.  

Os numeros positivos σ1, . . . , σr  chamam-se os valores singulares

da transformacao linear A :  E→ F, de posto r.

No teorema acima, podemos observar que { v1, . . . , vm } ⊂ F  e uma

base ortonormal de autovetores para o operador AA∗ :  F→ F, pois

(AA∗) vi  = A(σi u i) = σiAu i  = σ2i vi.

 Analogamente, { u 1, . . . , u  n} ⊂ E  e uma base ortonormal de autoveto-res do operador A∗A :  E→ E.

 Vemos ainda que  { u 1, . . . , u  r}  e uma base ortonormal de I m (A∗),

enquanto o conjunto ortonormal { v1, . . . , vr}  e uma base para I m (A).

 Ao mesmo tempo, { u r+1, . . . , u  n} ⊂ N (A) e  { vr+1, . . . , vm } ⊂ N (A∗) sao

bases, desde que nao sejam vazios.

Exercıcios

Em todos os exercıcios desta secao   E   e um espaco vetorial de di-

mensao finita, munido de produto interno.

13.1.  Prove que duas projecoes P, Q :  E → E sao iguais se, e somente

se, tem os mesmos auto-vetores com os mesmos auto-valores. Con-

clua que uma projecao  P :  E

→E  e auto-adjunta (portanto I m (P) =

 N (P)⊥) se, e somente se,  e normal. (Veja Exerc. 12.7.)13.2.   Sejam   A, B :   E →   E   operadores auto-adjuntos tais que

Av,v = Bv,v para todo v ∈ E. Prove que A  =  B.

Page 179: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 179/358

168   Operadores Auto-Adjuntos Secao 13

13.3.   Se  B  e invertıvel e  BAB∗  e auto-adjunto, prove que  A  e auto-

adjunto.

13.4.   Sejam   P   uma projecao ortogonal e   α > 0. Exprima a raizquadrada positiva de I + αP  em termos de P.

13.5.  Seja A  auto-adjunto. Prove que Ak  v =  0  implica Av  =  0.

13.6.   Assinale se cada um dos seguintes subconjuntos do espaco

vetorial L(E)  e um subespaco vetorial (S), um cone (C), um cone con-

vexo (CC):

( ) operadores normais (Veja Exerc. 12.7.)

( ) operadores auto-adjuntos

( ) operadores nao-negativos

( ) homotetias.

13.7.   Sejam  S, T  ∈ L(E)   involucoes auto-adjuntas. Prove que  ST   e

uma involucao auto-adjunta se, e somente se, ST   = TS.13.8.  Dados os vetores  v  = (2, −1, −2), e  w  = (3, −6, −6), determine

o operador auto-adjunto  A :  R3 → R3 tal que  Av  = (1,1,13)  e  Aw  =

(3,21,33), sabendo que o traco de A  e 5.

13.9.   Dados os vetores   u   = ( 4, 4, −2),   v   = ( 4, −2, 4)   e   w   = (1, −2,

−2), seja  A :  R3 →   R3 o operador linear tal que  Au   = (10, −2, −2),

Av = (−2, 10, −2) e  Aw  = (1,1, −5). Prove que A  e auto-adjunto.

13.10. Dado o subespaco F ⊂ E, considere as transformacoes linearesP :  E → F  e  J :  F → E, onde  P  e a projecao ortogonal (de nucleo  F⊥) e

Jv =  v  para todo v ∈ F. (J chama-se a inclus˜ ao de  F  em  E.) Determine

as adjuntas P∗ :  F→ E e  J∗ :  E→ F.

13.11. Seja A :  E→ E o operador de posto 1 definido por Av  =  v, a b.

(E  e um espaco vetorial de dimensao finita, com produto interno, e

a, b ∈   E  sao vetores nao-nulos.) Prove que  A  e auto-adjunto se, e

somente se,   b  e multiplo de  a. Alem disso,   A  e nao-negativo se, e

somente se, pode-se tomar  b  = a. Dada uma base ortonormal em  E,determine a matriz de  A em funcao das coordenadas de a e  b  nessa

base. (Veja Exercıcio 10.32.)

Page 180: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 180/358

Secao 13 Operadores Auto-Adjuntos   169

13.12.   Se  A∗A   = −A, prove que os autovalores de  A  pertencem ao

conjunto   {0, −1}. De exemplo de uma matriz  a ∈   M(2 × 2), tal que

a11  = −

1

3  e aT 

a = −a. Quantas dessas matrizes existem?13.13.   Seja  A :  E → E  auto-adjunto. Para todo  k  ∈  N  ımpar, mostre

que existe um  unico operador auto-adjunto X :  E→ E tal que Xk  = A.

Se k  e par, existe X auto-adjunto com Xk  = A  se, e somente se, A ≥ 0.

Neste caso, X  pode ser escolhido ≥ 0  e entao e  unico.

13.14.  Assinale V(erdadeiro) ou F(also):

( ) Se todos os elementos de uma matriz simetrica sao numeros

positivos entao essa matriz  e nao-negativa.

( ) O produto de operadores nao-negativos  e um operador nao-ne-

gativo.

( ) Um operador nao-negativo  e positivo ou e zero.

( ) Uma matriz do tipo   [ai · b j ]  e nao-negativa se, e somente se,

ai  = bi  (para todo i).

( ) O posto de uma matriz nao-negativa  n × n  pode ser qualquernumero de 1 a n.

( ) O inverso de um operador auto-adjunto (invertıvel) tambem e

auto-adjunto.

( ) Se existirem   u, v  ∈   R3 nao-nulos, com   Au   =   2u ,   Av   =   3v

entao existe uma base de autovetores para o operador linear

A :  R3

→ R3.

( ) Sejam   ,    e   [   ,   ]  produtos internos definidos em  R2. Se um

operador  A  e auto-adjunto relativamente a  ,   entao  A  tam-

bem e auto-adjunto em relacao a [  ,   ].

13.15.  Se o espaco vetorial  E  possui uma base formada por autove-

tores do operador  A :  E

 →  E, prove que  e possıvel definir em  E  um

produto interno em relacao ao qual A  e auto-adjunto.

13.16.  Num espaco vetorial  E, de dimensao finita, seja  A  um opera-dor diagonalizavel (ou seja, E  possui uma base formada por autove-

tores de  A). Se  F ⊂  E  e um subespaco invariante por  A, prove que

Page 181: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 181/358

Page 182: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 182/358

Secao 13 Operadores Auto-Adjuntos   171

existem uma base ortonormal   { u 1, . . . , u  n} ⊂   E  e numeros positivos

a1, . . . , an   tais que  Σ  e o conjunto dos vetores  v  =  x1 u 1  + · · · + xn u n

cujas coordenadas   xi   satisfazem a equacao   a1x2

1  + · · ·  +  anx2

n   =   1.Seja  A :  E → E  um operador invertıvel. Prove que todo elipsoide  Σ  e

transformado por A  num elipsoide Σ′.(Sugestao: use o Teorema 13.10.)

13.23.   Seja  Σ  um subconjunto de um espaco vetorial de dimensao

finita, com produto interno. Prove que Σ e um elipsoide se, e somente

se, existe um operador positivo  A :  E

→E tal que

Σ =  { v ∈

 E;

Av,v

= 1}.

13.24.   Num espaco vetorial  E, de dimensao finita, com produto in-

terno  u, v, seja  B  um operador positivo. Prove que   [ u, v ] = Bu,vdefine um novo produto interno em  E. Se  A :  E → E  e auto-adjunto

no sentido do produto interno original, prove que  A  e tambem auto-

adjunto no sentido do novo produto interno se, e somente se,

AB =  BA.

13.25.  Sejam A :  E→ E auto-adjunto e B :  E→ E positivo. Prove:

(a) Se X  e a raiz quadrada positiva de B entao XAX  e auto-adjunto.

(b)   v  e autovetor de XAX  se, e somente se, Xv  e autovetor de BA.

(c)   E possui uma base (nao necessariamente ortogonal) de autove-

tores de BA. (Ou seja, BA  e diagonalizavel.)

13.26.   Se  A :  E → E  e auto-adjunto e  B :  E → E  e positivo, prove que

E   possui uma base V   tal que, para todo   v ∈ V , existe   λ ∈   R   com

Av = λBv. (“Problema de autovalores generalizados”.)

13.27.   Sejam A, B  operadores auto-adjuntos no mesmo espaco veto-

rial. Se BA  e diagonalizavel, prove que AB tambem e diagonalizavel.

(Veja Exercıcio 12.35.)

13.28.   Dada a transformacao linear  A :  E

 →  F, entre espacos veto-

riais de dimensao finita munidos de produto interno, seja σ2 o maior

autovalor do operador  A∗A :  E → E   (σ ≥  0). Prove que σ  e o maiordos numeros   |Au |, onde  u  e qualquer vetor unitario em  E. Escreve-

se   ||A||   =   σ   =   max {|Au |; u  ∈   E, | u |   =   1}  e diz-se que   ||A||  e a  norma

Page 183: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 183/358

172   Operadores Auto-Adjuntos Secao 13

 espectral da transformacao linear  A. Seja   |A|  = 

tr(A∗A)  a norma

induzida pelo produto interno A, B = tr(A∗B), definido no Exercıcio

11.17. Se σ2

1, . . . , σ2

n  sao os autovalores de A∗A, tem-se

|A| =

 σ2

1 + · · · + σ2n   e   ||A|| = max  σi.

Conclua que ||A|| ≤ |A| ≤ √ n.||A||.

13.29.   Prove que todo operador auto-adjunto   A :  E →   E  pode ser

escrito como A  =  λ1P1 + · · · + λm Pm  onde:

(1)   λ1  < · · · < λm .

(2)   P21   =   P1   =   P∗1 , . . . , P2

m   =   Pm   =   P∗m . (Cada   Pi   e uma projecao

ortogonal.)

(3)   PiP j  = 0  se  i = j.

(4)   P1 +

· · ·+ Pm  = I.

Prove tambem que a expressao  A   =   ΣλiPi   com as propriedades

(1) a (4) acima  e  unica. (Sugestao:   λ1  < · · ·  < λm  sao os autovalores

distintos de   A   e  Pi   e a projecao ortogonal sobre o auto-espaco  Eλi ,

definido no Exercıcio 12.23.)

13.30.  Prove que todo operador auto-adjunto  e soma de operadores

auto-adjuntos de posto 1, os quais podem ser tomados nao-negativos

se A  for nao-negativo. [Sugestao: Teorema Espectral.]

13.31.   Chama-se  produto de Hadamard de duas matrizes a  = [aij ],

b = [bij ] ∈ M(m × n)  a matriz c  = [cij ] ∈ M(m × n) com  cij  = aij · bij.

Prove que o produto de Hadamard de duas matrizes nao-negativas

e uma matriz nao-negativa. (Use o fato de que toda matriz nao-

negativa pode escrever-se como soma

a =

r

a(r)

de matrizes nao-negativas de posto 1, cada uma das quais tem a

forma a(r) = [a(r)i   · a

(r) j   ].) (Veja o exercıcio anterior.)

Page 184: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 184/358

Secao 13 Operadores Auto-Adjuntos   173

13.32.  Prove que a norma espectral, definida no Exercıcio 13.18, tem

as propriedades

||A + B|| ≤ ||A|| + ||B||   e   ||BA|| ≤ ||B|| ||A||.

De exemplo de um operador   A :   R2 →   R2 para o qual se tem

||A2|| <  ||A||2.

13.33.   Prove que a norma   |A|   = 

tr(A∗A), proveniente do pro-

duto interno introduzido no Exercıcio 11.17, cumpre a desigualdade

|BA| ≤ |B| |A|.

13.34.   Seja  A :  E →   E  auto-adjunto. Se  u  ∈   E  e tal que  Au  =   0  eAu,u  =  0, mostre que existem v, w ∈ E  com Av,v > 0 e Aw,w <

0. Deduza daı o Cor. 1 do Teor. 13.7 sem usar o Teorema Espectral.

(Sugestao: considere tu + Au  para valores convenientes de  t.)

Page 185: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 185/358

Page 186: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 186/358

Secao 14 Operadores Ortogonais   175

Na discussao a seguir, um papel central  e desempenhado pelos

conjuntos ortonormais { u 1, . . . , u  n} ⊂ Rm . Uma matriz u ∈ M(m × n)

cujas  n  colunas formam um conjunto ortonormal em R

chama-seuma matriz ortogonal.

Se u 1, . . . , u  n ∈ Rm  sao as colunas da matriz u = [aij ] ∈ M(m ×n),

a condicao para que   u   seja ortogonal  e que  u i, u  j   =   0   se   i =   j  e

 u i, u i =  1, onde i, j = 1, . . . , n. Noutras palavras, deve-se ter

k =1

akiakj  = δij.   (*)

(Estamos usando aqui, mais uma vez, o sımbolo δij, conhecido como

“delta de Kronecker”, que vale 0 se  i = j  e 1 se i  =  j.) A igualdade (*)

significa precisamente que o produto uT  · u da transposta uT  por u  e

igual  a matriz identidade n × n.

Portanto a matriz  u

 ∈  M(m 

 × n)  e ortogonal se, e somente se,

uT  · u =  In.

Se  u ∈  M(m × n)  e ortogonal entao seu posto  e  n  (logo  m  ≥  n),

pois suas n  colunas sao vetores L.I. no espaco  Rm . Quando m  = n e

u ∈  M(n × n)  e uma matriz quadrada ortogonal entao a igualdade

uT  · u   =   In   implica  u · uT  =   In   logo  uT  =   u−1. (Vide Corolario do

Teorema 6.7 ou a propriedade 7) do produto de matrizes na Secao 8.)

 Assim, matrizes quadradas ortogonais sao aquelas cuja transposta

e igual  a inversa.

 A igualdade  u · uT  =  In  significa que as linhas de  u  formam um

conjunto de n  vetores ortonormais em  Rm . Portanto, para matrizes

quadradas, colunas ortonormais equivale a linhas ortonormais.

Se  u ∈   M(n ×  p),  v ∈  M(m × n)  sao ortogonais entao  (vu)T  vu

=  uT vT  vu   =  uT Inu   =   uT u   =  I p  logo o produto  vu  e ortogonal. Se

u ∈ M(n× n)  e ortogonal entao (uT )T  · uT  = u · uT  = In logo uT  = u−1

tambem e ortogonal.

Evidentemente, se m > n, as  m  linhas de uma matriz ortogonalu ∈  M(m × n)  nao podem formar um conjunto ortonormal pois sao

vetores em Rn, logo uT  nao e ortogonal quando u  nao e quadrada.

Page 187: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 187/358

176   Operadores Ortogonais Secao 14

Exemplo 14.1.  A matriz u, cujas colunas sao os vetores

 u 1  =

1

3 ,

 2

3 ,

 2

3

,

 u 2  =

2

3, −

1

3, 2

3

  e

 u 3  =

2

3, 2

3, −

1

3

,

e ortogonal.

Exemplo 14.2.   (Matrizes ortogonais 2 × 2.) Seja

u =

a b

c d

uma matriz ortogonal  2 × 2. Como  u 1   = (a, c)  e um vetor unitario

em  R2, existe  θ ∈  R  tal que  a  =  cos  θ,  c  =  sen  θ. Sendo  u 2   = (b, d)

unitario e perpendicular a  u 1, devemos ter  u 2   = ±(− sen  θ, cos  θ).

 Assim, ha duas possibilidades para a matriz  u:

u =

cos  θ   − sen  θ

sen  θ   cos  θ

  ou   u =

cos  θ   sen  θ

sen  θ   − cos θ

  .

No primeiro caso, tem-se  ad − bc = 1  e no segundo ad − bc = −1.

No primeiro caso, o polinomio caracterıstico de   u,   p(λ) =   λ2 −

(2 cos  θ)λ + 1, nao tem raızes reais salvo se  θ =  0 ou  θ  = 180◦, casos

em que  u   = ±I2. Trata-se da matriz de uma rotacao. No segundo

caso, p(λ) = λ2 − 1 tem raızes ±1. Entao o operador U :  R2

→ R2 cuja

matriz (na base canonica)  e  u admite autovetores v1,  v2, com  Uv1   = v1   e  Uv2   = − v2. Observe que, neste caso, a matriz u  e simetrica, o

operador  U  e auto-adjunto, { v1, v2} ⊂  R2 e uma base ortonormal e  U

e a reflexao em torno do eixo que contem v1, paralelamente a v2.

Exemplo 14.3.   (Matriz de passagem ortogonal.) Sejam U   =

 { u 1, . . . , u  n} ⊂   E  e U ′   =   { u ′1, . . . , u  ′n} ⊂   E   bases ortonormais. A ma-

triz de passagem   p   = [ pij ]   de U   para U ′   e uma matriz ortogonal.

Com efeito, para quaisquer i, j =  1, . . . , n, temos

 u ′i  =

nk =1

 pki u k    e   u ′ j  =

nk =1

 pkj u k ,

Page 188: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 188/358

Secao 14 Operadores Ortogonais   177

logo

δij  =  u ′i, u ′ j =

n

k =1

 pki pkj ,

portanto  pT  · p  =  In. As  ultimas 2 igualdades da linha acima mos-

tram que, reciprocamente, se a matriz de passagem  p  e ortogonal,

entao U   ortonormal⇒ U ′  ortonormal.

Teorema 14.1.   As seguintes afirmac˜ oes a respeito de uma trans-

 formac ˜ ao linear A :  E

→F , entre espacos vetoriais de dimens˜ ao finita

 providos de produto interno, s ˜ ao equivalentes:

(1)   A preserva norma:   |Av| = | v| para todo v ∈ E ;

(2)   A preserva distancia:  |Au −Av| =  | u − v| para quaisquer u, v ∈ E ;

(3)   A  preserva produto interno: Au, Av   =  u, v  para quaisquer

 u, v ∈ E ;

(4)   A∗A =  IE ;

(5)  A matriz de   A   relativa a qualquer par de bases ortonormais U ⊂  E , V ⊂ F  ´  e uma matriz ortogonal;

(6)   A matriz de   A  relativa a um certo par de bases ortonormais

 U ⊂  E , V ⊂ F  ´  e uma matriz ortogonal.

(7)   A  transforma uma certa base ortonormal U ⊂  E  num conjunto

ortonormal X ⊂ F. (Se dim  E =  dim  F , X   ´  e uma base.)

(8)   A transforma toda base ortonormal

 W ⊂ E num conjunto orto-

normal Z ⊂ F.

Demonstrac ˜ ao:  Se vale (1) entao   |Au  −  Av|  =   |A( u  −  v)|  =   | u  −  v|,

logo (1)⇒ (2). Se vale (2) entao

Au, Av =  1

2

|Au |2 + |Av|2 − |Au − Av|2

=

  1

2| u |2 + | v|2 − | u − v|2 =

 u, v

,

logo   (2) ⇒   (3). Se vale (3) entao, para quaisquer   u, v ∈   E   tem-se

 u, v  = Au, Av  = A∗Au,v, portanto  A∗Au  =  u  para todo  u  ∈  E,

Page 189: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 189/358

178   Operadores Ortogonais Secao 14

donde  A∗A  =  IE, logo  (3)

⇒( 4). Se vale (4) e  a  e a matriz de  A  nas

bases ortonormais U ⊂  E, V ⊂  F  entao  aT  · a  =  In  e a  e uma matriz

ortogonal, logo  ( 4) ⇒ (5). Obviamente  (5) ⇒ (6). Se vale (6), sejam U   =  { u 1, . . . , u  n}, V   =  { v1, . . . , vm } e a  = [aij ]  a matriz ortogonal de  A

nessas bases. De

Au i  =

m k =1

aki vk    e   Au  j  =

m k =1

akj vk 

resulta

Au i, Au  j

 =

k =1

akiakj  = δij,

logo X   =  {x1, . . . , xn} ⊂ F, com xi  =  Au i,  e um conjunto ortonormal e

(6) ⇒ (7). Se vale (7), seja W   =  { w1, . . . , wn} ⊂ E  uma base ortonor-

mal qualquer. Para i, j =  1, . . . , n, temos

 wi  =

 pki u k    e   w j  =

 pkj u k ,

onde a matriz de passagem p  = ( pij)  e ortogonal, pelo Exemplo 14.3.

Pondo Z  = {z 1, . . . , z  n}, onde z i  = Awi, vem, para i, j =  1, . . . , n:

z i  =

nk =1

 pkiAu k  =

nk =1

 pkixk    e   z  j  =

nk =1

 pkjxk .

Como X   = {x1, . . . , xn}  e ortonormal, resulta daı que

z i, z  j =

n

k =1

 pki pkj  = δij ,

logo Z  e ortonormal e (7)⇒ (8).

Finalmente, se vale (8), seja U   =  { u 1, . . . , u  n} ⊂ E uma base ortonor-

mal. Para todo u  =  α 1 u 1 + · · · + α n u n ∈ E  tem-se

| u |2 =

ni=1

α 2i .

Como {Au 1, . . . , A u  n} ⊂ F  e um conjunto ortonormal,

|Au |2 =

n

i=1

α i Au i

2

=

ni=1

α 2i   = | u |2,

Page 190: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 190/358

Secao 14 Operadores Ortogonais   179

logo |Au | =  | u | e  (8)

⇒(1).

Observac ˜ ao.  O Teorema 14.1 confirma o dito: enunciado longo ⇒demonstracao f acil. (Dito valido com a mesma precisao e generali-dade com que costumam valer os proverbios.)

Uma transformacao linear A :  E → F chama-se ortogonal quando

cumpre uma das oito condicoes do Teorema 14.1 (e portanto todas

elas). Em particular, um operador linear  A :  E → E  chama-se orto-

gonal quando  A∗   =  A−1. Para que o operador linear A :  E → E  seja

ortogonal,  e suficiente que A∗A = IE  ou entao que AA∗  = IE.

De |Av| =  | v| resulta que os  unicos autovalores possıveis para um

operador ortogonal A :  E → E  sao  +1 e  −1. Com efeito, Av  =  λv  com v = 0  implica | v| = |Av| = |λv| =  |λ| | v|, logo |λ| = 1.

Se u  e v  sao autovetores do operador ortogonal  A, com  Au  =  u  e

Av = − v entao  u, v = 0. Com efeito:

 u, v = Au, −Av = A∗Au, − v =  u, − v = −  u, v .

Teorema 14.2.  Se o operador ortogonal  A :  E → E  deixa invariante

o subespaco  F ⊂   E  ent˜ ao  A  deixa invariante o complemento ortogo-nal F⊥.

Demonstrac  ao:   Dado arbitrariamente   w ∈   F⊥, queremos provar

que Aw ∈ F⊥, isto e, que Aw,v = 0  para todo v ∈ F. Ora, a restricao

de A ao subespaco invariante  F  e um operador injetivo A :  F→ F, logo

sobrejetivo. Assim, dado  v ∈   F, existe  u  ∈   F  tal que  v   =   Au . Logo

Aw,v = Aw, Au  =  w, u  =  0,  pois w ∈ F⊥  e u ∈ F.

Observac ˜ ao.  Parte do argumento acima mostra que se o operadorA :  E→ E  e invertıvel e F ⊂ E  e invariante por A, entao F  e invariante

por A−1.

Exemplo 14.4.   Uma operador linear   S :  E →   E   que  e ao mesmo

tempo ortogonal e auto-adjunto cumpre   S∗S   =   I   e   S∗   =   S, logo

SS   =   I. Portanto ortogonal  +   auto-adjunto ⇒ involucao. Pelo Te-

orema 7.3, tem-se  E  =  F1 ⊕ F2, onde  F1   =   { v ∈  E; Sv  =  v}  e  F2   =   { v ∈E; Sv = − v}. Assim, os elementos nao-nulos de F1 e F2 sao os autoveto-

res de S  correspondentes aos autovalores  +1  e  −1  respectivamente.Da observacao que precede o Teorema 14.2 resulta que  F2   = (F1)⊥.

Juntando-se uma base ortonormal de  F1  com uma base ortonormal

Page 191: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 191/358

180   Operadores Ortogonais Secao 14

de  F2  obtem-se uma base ortonormal de  E  em relacao  a qual a ma-

triz de  S  e diagonal, com a diagonal da forma  (1 , . . . , 1 , −1 , . . . , −1).

O operador  S  e uma reflexao ortogonal. O leitor pode verificar semdificuldade que duas quaisquer das seguintes propriedades de um

operador linear S :  E → E implicam a terceira: (a)  SS = I; (b) S∗  = S;

(c) S∗  = S−1.

Em seguida, examinaremos como pode ser um operador ortogo-

nal   A :  E →   E  num espaco vetorial   de dimens˜ ao   2, dotado de um

produto interno.

Segundo a natureza dos autovalores de  A, ha quatro possibilida-

des:

(1) A possui um ´ unico autovalor, o qual ´  e igual a 1. Neste caso, A  =  I.

Com efeito, seja u ∈ E  um vetor unitario tal que Au  =  u . Se v ∈ E

e outro vetor unitario, perpendicular a   u , entao  Av   tambem  e um

vetor unitario perpendicular a  u , pelo Teorema 14.2, logo  Av  = ± v.

Como A nao admite o autovalor  −1, deve ser Av  = v. Mas { u, v} ⊂ E

e uma base, portanto A  =  I.

(2) A  possui um ´ unico autovalor, o qual ´  e igual a −1. Entao A  = −I.

O raciocınio  e inteiramente analogo ao anterior.(3) A admite os autovalores 1 e −1. Entao tomamos vetores unitarios

 u, v ∈  E  com  Au  =  u  e  Av  = − v, logo  { u, v} ⊂  E  e uma base ortonor-

mal, relativamente  a qual a matriz de A  e1 0

0   −1

  .

Neste caso,  A  e a reflexao ortogonal em torno do eixo que contem o

vetor u .

(4) A  n ˜ ao possui autovalores (reais).

Entao tomamos uma base ortonormal arbitraria   { u, v} ⊂   E. A 

matriz de A  nesta base, sendo ortogonal 2 × 2 sem autovalores, tem,

segundo o Exemplo 14.2, a forma

a = cos  θ   − sen  θ

sen  θ   cos  θ   .

Somos tentados a dizer que, neste caso, o operador   A :  E →   E  e a

rotacao de  angulo  θ. Mas para isso  e necessario verificar se  θ  nao

Page 192: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 192/358

Secao 14 Operadores Ortogonais   181

depende da base ortonormal U   = { u, v} ⊂ E  escolhida. Ora, se tomar-

mos outra base ortonormal U ′  =  { u ′, v′} ⊂ E, a nova matriz de  A  sera

a′  = p−1

ap, onde

p =

a b

c d

,

matriz de passagem de U  para U ′,  e ortogonal, logo p−1 = pT . Assim,

a′  =

a c

b d cos  θ   − sen  θ

sen  θ   cos  θ a b

c d  .

Levando em conta a ortonormalidade das linhas e das colunas da

matriz p, um calculo f acil mostra que se tem

a′  =

cos  θ   − sen  θ

sen  θ   cos  θ

ou

a′  =

  cos  θ   sen  θ

− sen  θ   cos  θ

  =

cos(−θ) − sen(−θ)

sen(−θ)   cos(−θ)

conforme seja ad − bc =  1  ou  ad − bc = −1 respectivamente.

Noutras palavras, o  angulo   θ   fica determinado a menos do sinal.

Isto quer dizer que, num espaco vetorial de dimensao 2, munido de

produto interno, faz sentido a nocao de angulo apenas em valor abso-

luto. Para que se possa falar no  angulo dotado de sinal e preciso in-

troduzir uma orientac ˜ ao em  E, isto e, escolher uma base ortonormal

 { u, v} ⊂   E, chama-la de  positiva  e declarar que sao tambem positi-

vas todas as bases ortonormais de  E  que se obtem a partir desta por

meio de matrizes de passagem ortogonais cujo determinante ad − bc

e igual a   1. De qualquer modo, com ou sem orientacao, os opera-

dores ortogonais sem autovalores (juntamente com ±I) num espaco

vetorial de dimensao 2 serao chamados rotac˜ oes. (I e −I sao respec-

tivamente as rotacoes de  angulo 0◦  e 180◦  respectivamente.)

Teorema 14.3.   Seja  A :  E → E  um operador ortogonal num espaco

vetorial de dimens˜ ao finita munido de produto interno. Existe uma

Page 193: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 193/358

182   Operadores Ortogonais Secao 14

base ortonormal de E relativamente a qual a matriz de A tem a forma

1 . . .

1

−1. . .

−1

cos  α 1   − sen  α 1sen  α 1   cos  α 1

. . .

cos  α k    − sen  α k 

sen  α k    cos  α k 

,

onde os termos n˜ ao aludidos s ˜ ao iguais a zero.

Demonstrac ˜ ao:   Os conjuntos   F1   =   { v ∈   E; Av   =   v}   e   F2   =   { v ∈E; Av   = − v}   sao subespacos vetoriais invariantes por   A, com   F1

 ∩F2   =   {0}. Logo  F   =   F1 ⊕ F2   tambem  e um subespaco invariante porA, o mesmo acontecendo com o complemento ortogonal   F⊥. Seja

 { u 1, . . . , u  r} ⊂   F   uma base ortonormal cujos primeiros vetores for-

mam uma base de  F1  e os restantes uma base de  F2. Nenhum su-

bespaco de dimensao 1 em   F⊥   e invariante por   A, logo existe um

subespaco invariante  G ⊂ F⊥  de dimensao 2. Seja  { v1, w1} ⊂ G uma

base ortonormal. Como vimos acima, tem-se   Av1   =   cos  α 1 ·  v1  +

sen  α 1 · w1,   Aw1   = − sen  α 1 · v1  + cos  α 1 · w1. Novamente, o com-

plemento ortogonal de  G  em  F⊥   e um subespaco invariante por  A,que nao possui autovetores, logo contem um subespaco invariante

de dimensao 2. Prosseguindo analogamente, chegaremos a uma

base ortonormal   { v1, w1, . . . , vk , wk } ⊂   F⊥   tal que   Avi   =   cos  α i vi  +

sen  α i vi   e   Awi   = − sen  α i vi   +  cos  α i wi   para   i   =   1 , . . . , k  . Entao

 { u 1, . . . , u  r, v1, w1, . . . , vk , wk } ⊂   E  e uma base ortonormal, relativa-

mente  a qual a matriz de A  tem a forma desejada.

Observac ˜ ao.   A matriz a que se refere o Teorema 14.3 pode nao

possuir elementos iguais a 1, ou a −1, como pode tambem nao conternenhum dos blocos 2×2, caracterısticos de rotacoes. Alem disso, caso

seja conveniente, cada bloco igual a  I2  ou a −I2  pode ser substituıdo

Page 194: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 194/358

Secao 14 Operadores Ortogonais   183

respectivamente pelos blocos

cos  0   − sen  0

sen  0   cos  0

  oucos  π    − sen  π 

sen  π    cos  π 

  .

Corolario.   Se   E   tem dimens˜ ao ´ ımpar, todo operador ortogonal

A :  E→ E possui um autovetor  v , com Av  = v  ou  Av  = − v.

Exemplo 14.5.   Seja  A :  R3 → R3 um operador ortogonal no espaco

euclidiano tri-dimensional. Se  A = ±I  entao existe uma base orto-

normal   { u 1, u 2, u 3} ⊂  R3 em relacao  a qual a matriz de  A   tem uma

das quatro formas abaixo:1 0 0

0 1 0

0 0   −1

  ,

1 0 0

0   −1 0

0 0   −1

  ,

1 0 0

0   cos  α    − sen  α 

0   sen  α    cos  α 

  ,

−1 0 0

0   cos  α    − sen  α 

0   sen  α    cos  α 

  .

No primeiro caso  A  e a reflexao em torno do plano que contem os

vetores u 1, u 2  (paralelamente a u 3). No segundo caso,  A  e a reflexao

em torno do eixo que contem  u 1  ou, o que  e o mesmo, a rotacao de

180◦  em torno desse eixo. No terceiro caso, A  e a rotacao de  angulo

α  em torno do eixo que contem u 1. No  ultimo caso, A  e essa rotacao

seguida da reflexao em torno do plano que contem   u 2   e   u 3. Estas

quatro possibilidades, mais  A  =  I  e  A  = −I, esgotam todos os tipos

de operadores ortogonais em R3.

Teorema 14.4.   Seja E

 um espaco vetorial de dimens˜ ao finita, mu-

nido de produto interno. Todo operador linear   A :   E →   E   admite

uma decomposic ˜ ao da forma  A   =   PU , onde U :  E → E   ´  e ortogonal e

P :  E→ E  ´  e n ˜ ao-negativo.

Demonstrac ˜ ao:  De acordo com o Teorema 13.10, existem bases or-

tonormais { u 1, . . . , u  n} ⊂ E, { v1, . . . , vn} ⊂ E  e numeros λi ≥ 0  tais que

Au i   =   λi vi   para  i   =   1, . . . , n. Definamos os operadores P, U :  E

→E

impondo que Pvi  = λi vi e  Uu i  = vi. Evidentemente, P  e auto-adjunto,

≥ 0, U  ´e ortogonal e PU

 = A.

 A expressao  A  =  PU  chama-se uma  decomposic ˜ ao polar  do ope-

rador   A, por analogia com a forma polar   z   =   reiθ de um numero

Page 195: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 195/358

184   Operadores Ortogonais Secao 14

complexo. Os fatores P  e  U  sao univocamente determinados a partir

de   A, no caso em que   A  e invertıvel. Provemos isto.   E claro que

A   invertıvel obriga  P  a ser tambem invertıvel, donde positivo. DeA =  PU  tiramos A∗  = U∗P e, multiplicando membro a membro estas

igualdades, vem  AA∗   =  PUU∗P   =  P2, portanto  P  e a raiz quadrada

positiva do operador positivo  AA∗. (Vide Teorema 13.8.) Multipli-

cando a igualdade  A  =  PU por  P−1 a esquerda, vem  U  =  P−1A. Isto

mostra que, no caso em que  A  e invertıvel,  P   =√ 

AA∗  e  U   =  P−1A

sao univocamente determinados a partir da igualdade  A  = PU.

Exercıcios

14.1.  Prove que as linhas de uma matriz  a  sao duas a duas orto-

gonais se, e somente se,   aaT  =   d, onde  d  e uma matriz diagonal.

Enuncie e prove um resultado analogo sobre a ortogonalidade das

colunas de a.

14.2.  Se as linhas de uma matriz quadrada forem duas a duas orto-

gonais e tiverem a mesma norma, prove que as colunas dessa matriztambem sao duas a duas ortogonais.

14.3.  De os seguintes exemplos:

(a) Uma matriz invertıvel cujas linhas sao duas a duas ortogonais

mas as colunas nao sao.

(b) Uma matriz (nao-quadrada) cujas linhas sao ortogonais e tem

a mesma norma mas as colunas nao sao ortogonais.

(c) Uma matriz cujas linhas (e colunas) sao duas a duas ortogonais

mas as normas das linhas sao diferentes.

14.4.   Seja  f :  Rn → Rn uma funcao tal que  f(0) =  0  e   |f( u ) − f( v)|  =

| u  − v|  para quaisquer  u, v ∈  Rn. (Ou seja:   f  deixa  0  fixo e preserva

distancias.) Prove:

(a) Para todo v

 ∈R

n, tem-se |f( v)| =  | v|.

(b) Para quaisquer  u, v ∈   Rn, tem-se f( u ), f( v)   =  u, v. [Use a

igualdade  u, v =   12 (| u |2 + | v|2 − | u − v|2).]

Page 196: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 196/358

Secao 14 Operadores Ortogonais   185

(c) Os vetores  u 1   =   f(e1), . . . , u  n   =   f(en)  formam uma base orto-

normal em Rn.

(d) Para todo v  =  x1e1 + · · · + xnen ∈ Rn, tem-se f( v), u i =  xi, logof( v) = x1 u 1 + · · · + xn u n.

(e)   f :  Rn → Rn e um operador linear, logo  e ortogonal.

Uma funcao g :  Rn → Rn chama-se uma isometria quando |g( u ) −

g( v)| =  | u  − v| para quaisquer u, v ∈  Rn. Conclua que toda isometria

tem a forma g( v) = A · v + b, onde A :  Rn

→R

n e um operador (linear)

ortogonal e b ∈Rn e um vetor constante (independente de  v).

14.5.   Seja   E  um espaco vetorial de dimensao finita, com produto

interno. Se  Ao :  F →   E  e uma transformacao linear ortogonal defi-

nida num subespaco vetorial  F ⊂   E, prove que existe um operador

ortogonal  A :  E→ E tal que A · v =  Ao · v para todo v ∈ F.

14.6.   Sejam   A :   F →   G   e   B :   F →   H   transformacoes lineares in-

vertıveis. (G e H sao espacos de dimensao finita, munidos de produto

interno.) Prove que existe uma transformacao ortogonal (invertıvel)

C :  G→ H com  B  =  CA  se, e somente se,  |Av| =  |Bv| para todo v ∈ F.

14.7.   Seja   E  um espaco vetorial de dimensao finita, com produto

interno. Dados dois operadores   A, B :  E →   E   tais que   |Av|   =   |Bv|

para todo   v ∈   E, prove que existe   C :   E →   E  ortogonal, com   B   =

CA. (Sugestao: observe que N (A) = N (B). Considere  F   = N (A)⊥

e sejam   Ao :  F → I m (A),   Bo :  F → I m (B)   os isomorfismos obtidos

por restricao de   A   e   B   respectivamente. Use o exercıcio anterior

para achar  Co :

 I m (A) → I 

m (B), com  Bo   =   CoAo   e obtenha  C  pelo

Exercıcio 14.5.)

14.8.  Dada uma base ortonormal   { u 1, u 2, u 3} ⊂   R3, sejam  n, p ∈   N

tais que   p   =   n2 +  n + 1. Defina um operador   A :  R3 →   R3 pondo

Au 1  = v1, Au 2  = v2, Au 3  = v3, onde

 v1  =  1

 p[nu 1 + (n + 1) u 2 + n(n + 1) u 3 ],

 v2  =  1

 p

[n(n + 1) u 1 + nu 2 − (n + 1) u 3 ],

 v3  =  1

 p[(n + 1) u 1 − n(n + 1) u 2 + nu 3 ].

Page 197: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 197/358

186   Operadores Ortogonais Secao 14

Prove que o operador  A  e ortogonal.

14.9.  Para quaisquer duas bases ortonormais

 U   =  { u 1, . . . , u  n}

 ⊂ E e

V  =  { v1, . . . , vn} ⊂ E, prove que existe um operador ortogonal A :  E→E  tal que  Au 1   =  v1, . . . , A u  n   =  vn. Se as bases dadas sao formadas

pelos vetores

 u 1  = 1

3(1,2,2), u 2  =

  1

3(2,1, −2), u 3  =

  1

3(2, −2, 1)   e

 v1  = 1

7(2,3,6), v2  =

 1

7(6,2, −3), v3  =

  1

7(3, −6, 2) em R

3,

determine a matriz de A  na base canonica deR

3

.14.10. Dado o vetor unitario u ∈ R

n, prove que o operador H u :  Rn →

Rn, definido por H u · v =  v − 2  v, u  u ,  e ortogonal. (Reflexao em torno

de  { u }⊥.) Dados os vetores v =  w  em  Rn, com   | v|  =   | w|, mostre que,

tomando  u  = ( v − w)/| v −  w|, tem-se  H u  v  =  w. Determine a matriz

de H u  em funcao das coordenadas de u  (“matriz de Householder”).

14.11.  Prove que todo operador  A :  E

 →  E, num espaco vetorial de

dimensao finita munido de produto interno se escreve como A  =  UP,

onde  U  e ortogonal e  P  e nao-negativo. (Faca a decomposicao polarde A∗.)

14.12.   Com a notacao do Exercıcio 11.17, considere um operador

ortogonal  A ∈ L(E)  e defina  MA : L(E) → L(E)  pondo  MA · X  =  AX.

Prove que MA  e um operador ortogonal.

14.13.  Se uma matriz ortogonal e triangular, prove que ela  e diago-

nal e seu quadrado e igual  a matriz identidade.

14.14.   Seja  E  um espaco vetorial de dimensao finita, com produtointerno. Uma funcao  S :  E →   E  chama-se uma  semelhanca   quando

existe um numero  r > 0   (chamado a  raz˜ ao de semelhanca) tal que

|S( u )−S( v)| =  r| u − v| para quaisquer u, v ∈ E. Se S  e uma semelhanca

de razao r, prove que existem um operador ortogonal A :  E→ E e um

vetor b ∈ E  tais que S( v) = r.Av + b para todo v ∈ E.

14.15.   Seja  A :  E

 →  E  um operador linear que transforma vetores

unitarios em vetores unitarios. Prove que   A  e ortogonal. Deduza

daı que se S :  E → E  e um operador linear invertıvel que transformadois quaisquer vetores de mesmo comprimento em vetores de mesmo

comprimento entao S  e uma semelhanca.

Page 198: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 198/358

Secao 14 Operadores Ortogonais   187

14.16.   Seja   S :  E

 →  E  um operador linear invertıvel que preserva

angulos, isto e

Su,Sv|Su | |Sv|

  =  u, v| u | | v|

quando  u  = 0  e  v = 0. Prove que S  transforma vetores ortogonais de

mesmo comprimento em vetores ortogonais de igual comprimento.

Conclua que S  e uma semelhanca.

14.17.  Com o produto interno introduzido no Exercıcio 11.17, prove

que os operadores ortogonais tem norma igual a√ 

n, onde n= dim  E.

14.18.   Se a decomposicao polar de um operador  e  unica, prove que

esse operador e invertıvel.

14.19.   Seja   A :  R3 →   R3 dado por   A(x,y,z ) = (2x  + 3y  − 6z, 6x +

2y +  3z, −3x +  6y  +  2z ). Mostre que A  e uma semelhanca de razao

7. Sabe-se que ou existe   v ∈   R3 com   Av   =   7v   ou existe   w ∈   R3

com   Aw   = −7w. Ache um autovetor de   A, complete-o de modo a

obter uma base ortonormal de  R3 e determine a matriz do operador

A nesta base.

14.20.   Seja  a  = [a1 a2   . . . an ] ∈  M(1 × n)  tal que  a21  + · · · + a2

n   =  1.

Prove que  aT a ∈   M(n × n)  e a matriz de uma projecao ortogonal.

Determine a imagem e o nucleo dessa projecao.

14.20. Pode uma matriz ortogonal ser anti-simetrica?

14.21. Seja a  uma matriz ortogonal  n × n.

(a) Prove que A :  M(n × n) → M(n × n), definida por Ax  = axT  +

xaT ,  e uma transformacao linear cuja imagem e o conjunto das

matrizes simetricas.

(b) Prove que, dada uma matriz simetrica s ∈ M(n×n), o conjunto

das matrizes x  tais que axT  + xaT  = s  e uma variedade afim de

dimensao n(n − 1)/2 no espaco vetorial  M(n × n).

14.22. Ache uma matriz ortogonal 4 ×  4  cujos elementos sao todos

da forma ± 12 .

Page 199: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 199/358

188   Operadores Ortogonais Secao 14

14.23. Seja v  = (a,b,c) um vetor unitario diferente de ±e3 . Mostre

que existe x  tal que a matriz abaixo  e ortogonal: a b c

bx   −ax 0

acx bcx   −1/x

 .

14.24. Um operador auto-adjunto   N :   E →   E   chama-se   negativo

quando Nv,v   < 0  para todo  v =   0  em  E. Determine a (unica) de-

composicao polar de um operador negativo N.

14.25. Prove que os elementos da diagonal de uma matriz negativasao numeros negativos.

14.26. Prove que a matriz abaixo e negativa

−34 12

12   − 41

 .

14.27. Ache a decomposicao polar da matriz

2 2

2   −1

.

14.28. Sejam   a ∈   M(r × r)   e   c ∈   M(s × s)  matrizes ortogonais.

Prove que a matriz  (r + s) × (r + s) abaixo e ortogonal se, e somentese, b  = 0: a b

0 c

  .

14.29. Obtenha a decomposicao polar da matriz

√ 2 1 1

−√ 

2 1 1

0 1   −1

  .

Page 200: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 200/358

15

Operadores Normais(Caso Real)

 Estudaremos agora o tipo mais geral de operadores (num espaco ve-torial de dimens˜ ao finita, munido de produto interno) para os quais

vale um resultado an´ alogo ao do Teorema 14.3, ou seja: existe uma

base ortonormal na qual a matriz do operador comeca na forma di-

agonal, seguida por uma s´  erie de blocos 2 × 2 da forma

 α β

−β α 

.

 Eles s ˜ ao os operadores normais. Na Sec ˜ ao 21 veremos que, nos espa-cos vetoriais complexos, os operadores normais s ˜ ao precisamente

aqueles que admitem uma base ortonormal de autovetores.

Nesta secao, todos os espacos vetoriais tem dimensao finita e sao

munidos de produto interno.

Um operador linear  A :  E → E  chama-se  normal  quando comuta

com seu adjunto, isto e, quando AA∗  = A∗A.

Uma matriz quadrada  a  diz-se  normal  quando comuta com sua

transposta, isto  e, quando aaT  =  aT a. Portanto um operador  e nor-mal se, e somente se, sua matriz relativamente a uma base ortonor-

mal e uma matriz normal.

Page 201: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 201/358

190   Operadores Normais (Caso Real) Secao 15

Exemplo 15.1.   Os operadores auto-adjuntos e os ortogonais sao

normais. Analogamente, as matrizes simetricas e as ortogonais qua-

dradas sao normais.

Exemplo 15.2.   (Matrizes normais   2 × 2.) Seja   a   =

a c

b d

  uma

matriz normal 2 × 2. Temos

aaT  =

a2 + c2 ab + cd

ab + cd b2 + d2

e

aT a =

a2

+ b2

ac + bdac + bd c2 + d2

  .

Logo  a  e normal se, e somente se,   b2 =   c2 (isto  e,   b   = ±c) e  ab +

cd   =   ac  + bd. Se   b   =   c, a matriz   a   e simetrica. Caso contrario,

temos   c   = −b   (com  b =   0). Entao, de   ab + cd   =   ac + bd   resulta

b(a  −  d) =   b(d  −  a), donde   a   =   d. Portanto, as  unicas matrizes

normais 2 × 2 sao as simetricas e as da forma

a =

a   −bb a

  .

Observe que se  a =  0 entao 0 =  r  =√ 

a2 + b2. Logo existe  θ ∈  R tal

que cos θ =  a/r  e sen θ =  b/r. Entao a matriz a  se escreve como

a =  r

cos θ   − sen θ

sen θ   cos θ

 .

Isto nos permite concluir que uma matriz normal 2×2 ou e simetricaou e a matriz de uma semelhanca no plano.

Um operador linear   A :  E →   E   chama-se  anti-sim´  etrico   quando

A∗   = −A, ou seja, Au,v  = − u, Av  para  u, v ∈  E   quaisquer. Para

que  A   seja anti-simetrico  e necessario e suficiente que sua matriz

[aij ] em relacao a uma base ortornormal de E seja anti-simetrica, isto

e,  aij  = −a ji  para quaisquer i, j  =  1, 2, . . . , n. Em particular,  aii  =  0.

Num espaco de dimensao  1, todo operador anti-simetrico  e igual a

zero; logo o  unico autovalor possıvel de um operador anti-simetricoe 0.

Evidentemente, todo operador anti-simetrico e normal.

Page 202: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 202/358

Secao 15 Operadores Normais (Caso Real)   191

Teorema 15.1.   Seja   A :  E

 →  E   um operador normal. Existe uma

base ortonormal de E  na qual a matriz de  A  tem a forma

λ1

. . .

λr

α 1   −β1

β1   α 1. . .

α s   −βs

βs   α s

onde os elementos n˜ ao expostos s˜ ao iguais a zero.

Demonstrac ˜ ao:   Sejam   σ20, σ2

1, . . . , σ2k   os autovalores distintos do

operador nao-negativo   AA∗   =   A∗A :  E →   E, com   σ0   =   0   e   σi   > 0

se  i ≥   1. Para cada   i   =  0, 1, . . . , k  , seja  Ei   = N (AA∗  − σ2i I)  o auto-

subespaco correspondente ao autovalor   σ2i  . O Teorema Espectral

nos afirma que   E   =   E0

 ⊕ E1

 ⊕ · · · ⊕ Ek . Alem disso, se   u 

 ∈  Ei   e

 v ∈   E j   com   i =   j   entao  u, v   =   0. Da igualdade   AA∗   =   A∗A   re-

sulta imediatamente que cada subespaco Ei  e invariante por A  e por

A∗. Ora, por definicao,   AA∗   em   Ei   coincide com   σ2i I. Logo o ope-

rador  Bi :  Ei →   Ei , definido para   i   =  1, 2, . . . , k   por  Bi v   = (1/σi)Av,

e ortogonal. Tomemos em  E0   uma base ortonormal qualquer. (Ob-

serve que   E0   = N (AA∗) = N (A) = N (A∗).) Tomemos ainda, em

cada subespaco Ei   (i =  1, . . . , k  ) uma base ortonormal na qual a ma-

triz do operador  Bi  tenha a forma dada no Teorema 14.3. Juntando

todas essas bases e ordenando seus elementos na forma adequada,obtemos uma base de   E  na qual a matriz do operador   A  e do tipo

desejado.

Observac ˜ oes:

1.   Os numeros  λ1, . . . , λr   sao os autovalores de  A. Dentre eles, os

nao-nulos tem a forma  λi   = ±σ j , onde  σ j  e um valor singular de  A.

Os demais valores singulares de  A  sao σ j  =  α 2 j   + β2 j   ( j =  1, . . . , s).

2.   Se A nao possui autovetores, a matriz do Teorema 15.1 nao apre-senta a parte superior (diagonal). Por outro lado, se A  e auto-adjunto

nao existem os blocos  2 × 2 da parte inferior.

Page 203: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 203/358

Page 204: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 204/358

Page 205: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 205/358

Page 206: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 206/358

16

Pseudo-inversa

 A noc ˜ ao de pseudo-inversa e o estudo de suas propriedades consti-

tuem uma maneira simples e atraente de aplicar alguns dos resul-

tados obtidos nas sec˜ oes anteriores. Do ponto de vista pr ´ atico, esta

noc ˜ ao responde uma pergunta bastante natural, que ocorre de fato em diferentes aplicac˜ oes da   ´  Algebra Linear: dada A ∈ L(E; F) e dado

b ∈ F , se ´  e imposs´ ıvel achar x ∈ E tal que  Ax =  b , qual ´  e, ou melhor,

quais s˜ ao os vetores  x ∈ E  tais que o erro  |Ax − b|   ´  e o menor poss´ ıvel

 e qual entre esses vetores x   ´  e a soluc ˜ ao ´ otima, ou seja, tem a menor

norma?

Sabemos que um sistema de m  equacoes lineares com n  incogni-

tas pode ser interpretado como o problema de achar um vetor  x

∈R

n

tal que   Ax   =   b, onde   A :  Rn →   Rm  e a transformacao linear cujamatriz (nas bases canonicas de Rn e Rm ) e dada pelos coeficientes do

sistema e  b ∈  Rm  e o vetor cujas coordenadas sao os numeros que

figuram nos segundos membros das equacoes do sistema.

Se  b  nao pertence  a imagem de  A, o sistema  Ax   =   b   evidente-

mente nao possui solucao. Faz sentido, entretanto, procurar em  Rn

um vetor x tal que Ax esteja o mais proximo possıvel de b e, dentre

esses vetores  x, aquele de menor norma. Isto nos leva  a nocao de

pseudo-inversa de uma transformacao linear.Seja A :  E → F uma transformacao linear entre espacos vetoriais

de dimensao finita, munidos de produto interno. A   pseudo-inversa

Page 207: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 207/358

196   Pseudo-inversa Secao 16

de   A   e a correspondencia   A+ :  F

 →  E   que associa a cada   y ∈   F   o

vetor  A+ y = x ∈ E de menor norma entre todos os vetores  x ∈ E  que

tornam mınima a distancia  | y − Ax|. (Fig. 16.1.)

Figura 16.1.

Descrevamos como opera a pseudo-inversa   A+ :   F →   E. Dado

 y ∈   F, o vetor de I m (A)  mais proximo de  y  e a projecao ortogonal

 yo   de   y   sobre I m (A), caracterizada pelo fato de que   yo ∈ I m (A)

e   y  −  yo

  e perpendicular a (todos os vetores de) I 

m (A), ou seja,

 y  −  yo  ∈ N (A∗). Como   yo  ∈ I m (A), existem vetores   x ∈   E   tais

que  Ax   =   yo. Se  x  e um deles, os demais sao da forma  x +  z , onde

z  ∈ N (A), pelo Teorema 6.4. Dentre estes vetores  x + z , o de me-

nor norma  e  x − xo, onde  xo  e a projecao ortogonal de  x  sobre N (A)

pois sendo x − xo  perpendicular a N (A), Pitagoras nos da, para todo

z  ∈ N (A):

|x + z |2 = |x − xo + z + xo|2 = |x − xo|2 + |z + xo|2 ≥ |x − xo|2.

(pois  z  + xo ∈ N (A), logo e perpendicular a x  − xo). Portanto A+ y  =

x −  xo. Note que, sendo ortogonal a N (A),  A+ y  pertence a I m (A∗).

Na realidade, A+ y  e o  unico vetor da imagem de A∗  tal que AA+ y =

 yo. (Com efeito, A, restrita a I m (A∗),  e injetiva, visto que I m (A∗) ∩ N (A) =  {0}.)

Esta definicao da pseudo-inversa de uma transformacao linear

A :  E

 →  F  apresenta-a como uma funcao bem definida   A+ :  F

 →  E,

com as propriedades geometricas procuradas, porem nao deixa claro

se  A+ e uma transformacao linear. Usando o Teorema 13.10, apre-sentaremos em seguida uma transformacao   A′ :  F →   E, que certa-

mente  e linear mas que usa certas bases escolhidas em   E   e   F, de

Page 208: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 208/358

Secao 16 Pseudo-inversa   197

modo que nao parece estar bem definida. Em seguida, provaremos

que   A′   =   A+, logo   A+ e linear e   A′   nao depende das escolhas de

bases.Seja  r  o posto da transformacao linear  A :  E → F. Pelo Teorema

13.10, existem bases ortonormais  { u 1, . . . , u  n} ⊂ E,  { v1, . . . , vm } ⊂ F e

numeros positivos  σ1, . . . , σr   tais que  Au i   =   σi vi,   A∗ vi   =   σi u i   para

1 ≤   i ≤  r  e  Au i   =  0,  A∗ vi   =  0  para  i > r. Pelo Teorema 4.1, existe

uma  unica transformacao linear A′ :  F→ E tal que

A′ vi  =  1

σi u i  para 1 ≤ i ≤ r   e   A′ vi  = 0  quando i > r.

Teorema 16.1.  A′  = A+ = pseudo-inversa de A.

Demonstrac  ao:  Devemos mostrar que, para todo y ∈ F, o vetor A′ ye igual a  A+ y, isto  e, tem as seguintes propriedades: (1)  AA′ y  =  yo

e o vetor de I m (A)  mais proximo de  y; (2)  A′ y  e o vetor de menor

norma em  E  cuja imagem por  A  e  yo. Estas afirmacoes sao equiva-

lentes a   (1′) ( y − AA′ y) ⊥ I m (A), ou seja,   y − AA′ y ∈ N (A∗), ou

ainda,  A∗ y = A∗AA′ y; (2′)  A′ y

 ∈ I m (A∗). Evidentemente, basta ve-

rificar a validez de   (1′)  e   (2′)   quando  y  e qualquer um dos vetoresbasicos  v1, . . . , vm . Nestes casos, porem,  (1′)  e  (2′)  resultam imedia-

tamente da definicao de A′.

Corolario 1.   AA+ :   F →   F   ´  e a projec ˜ ao ortogonal sobre I m (A)   e

A+A :  E→ E  ´  e a projec ˜ ao ortogonal sobre I m (A∗).

Com efeito, temos   AA′ vi   =   vi   se   1   ≤   i   ≤   r,   A′ vi   =   0   se

i > r,   A′   =   A+ e   { v1, . . . , vr} ⊂ I m (A)  e uma base. Analogamente

para  A

+

A. (O Corolario 1 tambem resulta diretamente da definicaode A+.)

Corolario 2.  Se A :  E→ F  ´  e injetiva ent ˜ ao A+ = (A∗A)−1 A∗.

Com efeito, se  A  e injetiva, o operador  A∗A :  E → E  e invertıvel.

(Corolario do Teorema 13.9). A igualdade alegada significa que

A∗(AA+) =   A∗, o que foi estabelecido na prova do Teorema 16.1.

(Forma final da condicao (1′).)

Corolario 3.  Se A :  E→ F  ´  e sobrejetiva ent ˜ ao A+ = A∗

(AA∗

)−1.

Com efeito, ainda pelo Corolario do Teorema 13.9, A  sobrejetiva

implica que o operador AA∗ :  F→ F e invertıvel e a igualdade alegada

Page 209: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 209/358

198   Pseudo-inversa Secao 16

equivale a  (A+A)A∗   =  A∗. Isto  e evidente se substituirmos  A+ por

A′   (vide prova do Teorema 16.1) e testarmos a igualdade em cada

um dos vetores da base  { v1, . . . , vm } ⊂ F.Corolario 4.  Se A :  E→ F  ´  e invert´ ıvel ent˜ ao A+ = A−1.

Evidente.

Segue-se dos Corolarios 2 e 3 que se  A  e injetiva entao A+ e uma

inversa a esquerda de A, e se A  e sobrejetiva entao A+ e uma inversa

a direita de A.

Corolario 5.   Para toda transformac ˜ ao linear   A :   E →   F , tem-se

(A∗)+ = (A+)∗ :  E→ F.

Com efeito, as bases ortonormais fornecidas pelo Teorema 13.10

e usadas na definicao de  A′  tanto servem para  A  como para  A∗. Se

as utilizarmos com  A∗  em vez de A, obteremos (A∗)′ u i  = (1/σi) vi  se

1 ≤   i ≤   r  e   (A∗)′ u i   =   0  se   i ≥   r + 1. Mas  e claro que   (A′)∗   opera

do mesmo modo sobre os vetores basicos u i. Logo (A′)∗  = (A∗)′  e daı

segue o corolario.

Exemplo 16.1.   Se   A :   E →   F   e ortogonal entao   e injetiva, logoA+ = (A∗A)−1 A∗. Mas a ortogonalidade de  A   significa  A∗A   =   IE,

logo A+ = A∗.

Exemplo 16.2.   Seja  A :  R2 → R3 dada por  A(x, y) = (x,y,0). Como

A  e ortogonal, temos A+ =  A∗. A matriz de  A tem colunas (1,0,0) e

(0,1,0), logo estas sao as linhas da matriz de  A∗, portanto A∗(x,y,z )

= (x, y). Portanto a pseudo-inversa de  A  e  A+ :  R3

→R

2, dada por

A+(x,y,z ) = (x, y).

Exemplo 16.3.   Definamos   A :  R2 →   R3 pondo   A(x, y) = (x,y,x  +

 y). Como  A  e injetiva, sua pseudo-inversa  e  A+ = (A∗A)−1 A∗. As

colunas da matriz de A (linhas da matriz de A∗) sao (1,0,1) e (0,1,1),

logo

A∗(x,y,z ) = (x + z, y + z )

e daı

A∗A(x, y) = (2x + y, x + 2y).

Para determinar   (A∗A)−1 (x, y) = (s, t), resolvemos o sistema

(A∗A)(s, t) = (x, y), ou seja 2s+t =  x, s+2t =  y, no qual as incognitas

Page 210: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 210/358

Secao 16 Pseudo-inversa   199

sao s, t. Encontramos

s =

  (2x − y)

3   e   t =

  (2y − x)

3   .

Portanto

(A∗A)−1 (x, y) =  1

3(2x − y, 2y − x).

 Assim, para qualquer  (x,y,z ) ∈ R3 temos

A+(x,y,z ) = [(A∗A)−1 A∗ ](x,y,z )

= (A∗A)−1 (x + z, y + z )

=   13

(2x − y + z,2y − x + z ).

Exemplo 16.4.  Seja B :  R3 → R2 dada por

B(x,y,z ) = 1

3(2x − y + z, −x + 2y + z ).

Temos as matrizes de posto 2:

b =  1

3

2   −1 1

−1 2 1

  e   bT  =  1

3

2   −1−1 2

1 1

  .

Logo  B  e sobrejetiva e  B+ =  B∗(BB∗)−1. Como a matriz de  B∗  e  bT ,

temos

B∗(x, y) = 1

3(2x − y, −x + 2y,x + y)

para qualquer (x, y) ∈ R2. Segue-se que BB∗ :  R2

→ R2 e dado por

BB∗(x, y) = 1

3B(2x − y, −x + 2y,x + y)

= 1

9(6x − 3y, −3x + 6y)

= 1

3(2x − y, −x + 2y).

Para determinar   (BB∗)−1 (x, y) = (s, t), resolvemos o sistema

BB∗(s, t) = (x, y), isto  e,   2s −  t   =   3x,   −s +  2t   =   3y, nas incognitas

s, t, e encontramos s  =  2x + y, t  =  x + 2y, portanto

(BB∗)−1(x, y) = (2x + y, x + 2y).

Page 211: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 211/358

200   Pseudo-inversa Secao 16

Isto nos da, finalmente:

B

+(x, y

) = B∗

(BB∗

)−1(x, y

)

= B∗(2x + y, x + 2y)

= 1

3(3x,3y,3x + 3y),

ou seja, B+(x, y) = (x,y,x + y).

Retomando a transformacao A  do Exemplo 16.3, vemos que  B  = A+

e constatamos que  (A+)+ = B+ = A.

 A relacao A++ = A, verificada no caso particular acima, e verda-

deira em geral. Isto pode ser visto facilmente examinando a defini-

cao da transformacao  A′  e notando que  (A′)′  =  A. Como A′  =  A+, o

resultado segue daı.

Exercıcios

16.1. Determine a pseudo-inversa de cada uma das seguintes trans-formacoes lineares:

(a) A transformacao nula 0 :  E→ F;

(b) A projecao ortogonal P :  E→ E sobre o subespaco F;

(c) A mesma projecao acima, considerada como transformacao li-

near de E  sobre F;

(d) A projecao (nao-ortogonal)  P :  R2 → R2, sobre a reta  F, parale-

lamente  a reta G. (Descreva P+ geometricamente.)

16.2.   Para toda transformacao linear  A :  E → F  e todo  α  =  0, prove

que (α · A)+ =   1α  · A+ .

16.3.   Identifique o nucleo e a imagem da pseudo-inversa de uma

transformacao linear A :  E→ F.

16.4.   Dada a transformacao linear  A :  E → F, prove que, para todo

 w ∈ F, tem-se A+AA∗ w =  A∗ w.

Page 212: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 212/358

Secao 16 Pseudo-inversa   201

16.5.   Sejam   A :   E

 →  F   e   B :   F

 →  G   transformacoes lineares. Se

 I m (A) = I m (B∗), prove que (BA)+ = A+B+ .

16.6.  Dado o operador A :  E→ E, prove:

(a) Se A  e auto-adjunto, A+ tambem e.

(b) Se A  e normal, A+ tambem e.

(c) Se A  e nao-negativo, A+ tambem e.

16.7.   Dados os vetores linearmente independentes  v1, . . . , vr ∈   Rn,

seja  a ∈   M(n × r)  a matriz que os tem como colunas. Prove que a

projecao ortogonal de um vetor qualquer  x ∈  Rn sobre o subespaco

gerado por v1, . . . , vr  e Px  =  a(aT a)−1 aT x, onde identificamos o vetor

x ∈ Rn com a matriz x ∈ M(n × 1) cuja  unica coluna e x.

16.8.  Use a f ormula acima para determinar a projecao ortogonal do

vetor (1,2,3) sobre o plano gerado pelos vetores  (1,1,1) e  (1, −1, 1).

16.9.   Seja A :  Rn → Rm  uma transformacao linear. Prove que, dadoqualquer   b ∈   Rm , a equacao   A∗Ax   =   A∗b   sempre possui solucao.

(Uma infinidade delas se A∗A nao e invertıvel.)

16.10.   Prove as seguintes propriedades da pseudo-inversa de uma

transformacao linear A :  E→ F:

(a)   AA+A = A

(b)   A+AA+ = A+

(c)   (AA+)∗  = AA+

(d)   (A+A)∗  = A+A.

16.11. Seja A :  R2

→R

3 dada por A(x, y) = (x,y,2x + 3y). Determine

a pseudo-inversa A+ :  R3 → R2.

16.12.   Ache a pseudo-inversa da transformacao linear A :  R3 → R2,

sabendo que A(x,y,z ) = (x + y, y + z ).

Page 213: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 213/358

202   Pseudo-inversa Secao 16

16.13.   Determine a pseudo-inversa de uma matriz diagonal   d   =

[dij ] ∈   M(n × n). (Isto significa, naturalmente, a matriz de   D+,

onde  D : R

n → Rn

e o operador linear cuja matriz na base canonicae   d.) Considere explicitamente o caso em que a diagonal de   d   e

(1,0, −2,0,1/3).

16.14.  Dada a transformacao linear (nao necessariamente injetiva)

A :  E → F, sejam  P :  E → E  e  Q :  F → F  as projecoes ortogonais sobre

Im (A∗)  e   Im (A)  respectivamente. Interprete e demonstre a igual-

dade A+ = PA−1Q.

16.15.  Defina o operador A :  R2 → R2 pondo  A(x, y) = (x − y, x − y).

Determine a matriz de A+ :  R2 → R2 na base canonica. Ache o vetor

 v ∈  R2 de menor norma tal que  Av  esta o mais proximo possıvel de

 w = (3, 5).

16.16.  Dado o vetor nao-nulo  a ∈  E, defina a transformacao linear

A :  R

 →  E  pondo  A · 1   =   a. Mostre que  A∗ :  E

 →  R  e definida por

A∗

· w =

 a, w

 e, usando a expressao A+ = (A∗A)−1 A∗, conclua que

A+ :  E→ R  e dada por A+ · w = a, w /|a|2.

16.17. Fixado o vetor nao-nulo  b ∈ E, defina B :  E→ R pondo B · w =

b, w. Mostre que   B+ =   B∗(BB∗)−1 para concluir que   B+ :  R →   E

cumpre B+ · 1 =  b/|b|2.

16.18.   Sejam  A :  R

→E  e  B :  E

→R  definidas por  A · 1  =  a,  B · w  =

b, w, onde  a, b ∈  E  sao vetores fixados de tal modo que a, b =  0.

Prove que as transformacoes lineares (BA)

+

: R→ R

e A+

B+

: R→ R

sao dadas por

(BA)+ · 1 =  1

a, b   e   (A+B+) · 1 =  a, b|a|2 · |b|2

.

Conclua que, em geral, se tem  (BA)+ =  A+B+. De um exemplo con-

creto desta desigualdade, com A :  R→ R2 e B :  R2

→ R.

16.19.   Com a notacao dos dois exercıcios anteriores, prove que

(AB)+ = B+A+.

Page 214: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 214/358

Secao 16 Pseudo-inversa   203

16.20.   Seja  A :  E

 →  F  a transformacao linear de posto 1 dada por

Av   =  v, a b, onde   a ∈   E   e   b ∈   F   sao vetores =   0. Sabendo que

A∗ w =  w, b a para todo w ∈ F (cfr. Exercıcio 11.17), mostre que

A+ w =  w, b|a|2|b|2

 · a

para todo w ∈ F.

16.21.  Sejam A :  Rm → Rn sobrejetiva e B :  Rn → R

m  injetiva. Prove

que (BA)+ = A+B+. (Generalizacao do Exercıcio 16.19.)

16.22.   Prove que a projecao  P :  E → E  e ortogonal se, e somente se,P+ = P.

16.23.   Use o Exercıcio 16.20 para calcular a pseudo-inversa da

transformacao linear A :  R2 → R3 que tem a matriz

a =

1 3

 4 12

1 3

.

16.24.   Sejam  v1, v2, v3, v 4, v5 ∈  R 4 as colunas de uma matriz   [aij ] ∈M( 4 × 5). Suponha que v1   e  v2  sejam L.I. e que  v3   =   b13 v1  + b23 v2,

 v 4  = b14 v1 + b24 v2, v5  = b15 v1 + b25 v2. Prove que

a11   a12   a13   a14   a15

a21   a22   a23   a24   a25

a31   a32   a33   a34   a35

a 41   a 42   a 43   a 44   a 45

=

a11   a12

a21   a22

a31   a32

a 41   a 42

1 0 b13   b14   b15

0 1 b23   b24   b25

  .

Mostre que este e um metodo geral para exprimir toda matriz  m × n

de posto r  como produto de uma matriz  m × r por uma matriz r × n,

ambas de posto (maximo) igual a  r. Compare com o Exercıcio 6.29,

do qual esta  e uma versao matricial. Mostre que as matrizes  4 ×2  e  2 × 5  acima foram obtidas a partir da solucao natural daquele

exercıcio. Deduza daı (com auxılio do Exercıcio 16.21) um processo

para calcular a pseudo-inversa de qualquer matriz.

Page 215: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 215/358

17

Topicos Matriciais

Salvo o item C e a observac ˜ ao final do item G, os assuntos tratados

nesta sec ˜ ao n˜ ao ser˜ ao necess´ arios para entender as seguintes. Alguns

deles s˜ ao traduc˜ oes, para a linguagem das matrizes, de teoremas em´  etodos apresentados nas sec˜ oes precedentes, outros s˜ ao t´ opicos ma-

triciais interessantes em si mesmos ou temas cl ´ assicos do c´ alculo ma-

tricial que se tˆ em revelado ´ uteis, especialmente sob o ponto de vista

computacional.

17.A Matrizes de Gram

Seja   E  um espaco vetorial de dimensao finita, munido de produtointerno. A   matriz de Gram   dos vetores   v1, . . . , vk  ∈   E   e a matriz

g  = [gij ] ∈ M(k ×k ), onde gij  =  vi, v j. Quando precisarmos ser mais

explıcitos, escreveremos g  =  g ( v1, . . . , vk ).

Dada uma base U   =  { u 1, . . . , u  n} ⊂ E, seja a  = [aij ] ∈ M(n × k )  a

matriz das coordenadas dos vetores  v j  em relacao  a base U , isto e:

 v j  = a1j u 1 + · · · + anj u n   para   j =  1, . . . , k.

Seja ainda h  = [h ij ] ∈ M(n × n) a matriz de Gram da base U , isto e,

h ij  =  u i, u  j. Entao, para i, j  = 1, . . . , k  , temos (escrevendo mij  para

Page 216: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 216/358

Secao 17 Topicos Matriciais   205

indicar o ij-esimo elemento de uma matriz m):

gij  =  vi, v j =   n

r=1

ari u r,

ns=1

asj u s

 =

nr,s=1

ariasjh rs

=

nr=1

ari

  ns=1

h rsasj

 =

nr=1

(aT )ir(ha)rj  = (aT ha)ij

portanto  g  =  aT ha.

Em particular, se tomarmos uma base ortonormal  { u 1, . . . , u  n} ⊂E, teremos h  =  In, portanto a matriz de Gram  g  se escreve como

g  =  g ( v1, . . . , vk ) = aT  · a,

onde  a  e a matriz das coordenadas dos vetores v j  em relacao a uma

base ortonormal de E. Daı resultam:

1) Toda matriz de Gram ´  e n ˜ ao-negativa;

2) A matriz de Gram g  =  g ( v1, . . . , vk )  ´  e positiva (isto ´  e, invert´ ıvel) se,

 e somente se, os vetores v1, . . . , vk  s ˜ ao L.I. .Reciprocamente, se uma matriz g  = [gij ] ∈ M(k × k ) admite uma

decomposicao do tipo  g   =   aT  · a, onde  a   = [aij ] ∈   M(n × k )  entao,

tomando uma base ortonormal  { u 1, . . . , u  n} ⊂ E  e escrevendo

 v j  =

ni=1

aij u i   ( j =  1, . . . , k  ),

obtemos vetores v1, . . . , vk  ∈ E tais que

 vi, v j =

nk =1

akiakj  = (aT  · a)ij  = gij ,

logo  g  = g ( v1, . . . , vk )  e a matriz de Gram dos vetores  v1, . . . , vk . Isto

leva a mais uma propriedade das matrizes de Gram:

3) Toda matriz n˜ ao-negativa g  = [gij ] ∈ M(k × k )  ´  e a matriz de Gram

de uma lista de vetores v1, . . . , vk  ∈ E.Com efeito, existe a ∈ M(k ×k ) simetrica (e nao-negativa) tal que

g  = a2 = aT  · a (Teorema 13.8).

Page 217: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 217/358

206   Topicos Matriciais Secao 17

17.B Matrizes Triangulares

Uma matriz  t  = [tij ]

 ∈ M(n

×n)  diz-se  triangular superior  quando

tij  = 0  para i > j e  triangular inferior quando tij  = 0  para i < j.Trataremos primordialmente de matrizes triangulares superio-

res. As propriedades das triangulares inferiores sao analogas e se

provam analogamente.

Uma matriz triangular superior e a matriz de um operador linear

T :  Rn → Rn tal que ei, Te j   =  0  para  i > j. Se chamarmos de  Fi ⊂

Rn o subespaco vetorial formado pelos vetores (x1, . . . , xi, . . . , 0) cujas

ultimas  n − i  coordenadas sao nulas, a matriz do operador  T  :  Rn

→Rn (na base canonica)  e triangular superior se, e somente se, todosos subespacos  Fo ⊂ · · · ⊂ Fn  sao invariantes por T .

Com efeito, a condicao ei, Te j  =  0 para  i > j  significa que, para

cada  j, as  ultimas  n − j  coordenadas do vetor Te j  sao nulas, ou seja,

que Te j ∈ F j para j  =  1, . . . , n. Isto e o mesmo que dizer que T (F j) ⊂ F j

para todo j.

Seguem-se algumas propriedades das matrizes triangulares su-

periores:

1)  O produto de duas matrizes triangulares superiores ´  e ainda umamatriz triangular superior.

Com efeito, se o subespaco Fi ⊂  Rn e invariante por cada um dos

operadores  S, T :  Rn → Rn entao Fi  e invariante pelo produto  ST .

2)  Uma matriz triangular superior  t  = [tij ]  ´  e invert´ ıvel se, e somente

 se, os elementos tii  da sua diagonal s˜ ao todos diferentes de zero. No

caso afirmativo, a inversa t−1 ´  e triangular superior e os elementos de

 sua diagonal s ˜ ao t−1ii   .

Com efeito, se todos os tii sao = 0, dado um vetor nao-nulo v ∈ Rn

provemos que Tv = 0  (onde T  e o operador de Rn cuja matriz na base

canonica e t). Seja v  =  x1e1 + · · ·+ xrer, com xr = 0. Como er, Tei =  0

para i < r, temos

er, Tv =i≤r

er, xiTei =  xr er, Ter  =  xrtrr,

portanto er, Tv = 0, e daı Tv = 0. Assim t  e invertıvel.Reciprocamente, se   t   (ou seja,   T )  e invertıvel entao, para cada

i  =   1, . . . , n, a restricao  T :  Fi → Fi, de  T  ao subespaco  Fi,  e tambem

Page 218: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 218/358

Secao 17 Topicos Matriciais   207

invertıvel, logo sobrejetiva. Se fosse   tii   = ei, Tei   =   0, terıamos,

como acabamos de ver, para todo v  = x1e1 + · · · + xiei ∈ Fi, ei, Tv  =

xitii  = 0, logo Tv ∈ Fi−1. Isto significa que T (Fi) ⊂ Fi−1, contradizendoa sobrejetividade de  T :  Fi → Fi. Portanto todos os  tii  sao diferentes

de zero.

Se a matriz triangular superior  t  e invertıvel, o operador linear

T :  Rn → Rn tambem e. Cada um dos subespacos Fi  = S(e1, . . . , ei) ⊂

Rn sendo invariante por T  e tambem invariante por T −1. (Com efeito,

A(F)  ⊂   F ⇒   A(F) =   F ⇒   A−1(F) =   F.) Logo a matriz   t−1, do

operador  T −1,  e tambem triangular superior. Escrevendo t−1 = [sij ],

a igualdade t−1t =  In  nos da, para cada i  = 1, . . . , n:

1 = (t−1t)ii  =

nk =1

sik tki  = siitii,

pois sik  = 0  se  i > k  e  tki  = 0  se  k > i. Logo sii  = 1/tii.

3)   Os autovalores de uma matriz triangular superior   t   = [tij ]  ∈M(n × n) s ˜ ao os elementos tii  da sua diagonal.

Por definicao, os autovalores de   t   sao aqueles do operador

T :  Rn → Rn cuja matriz na base canonica e t.

Em primeiro lugar, se   λ   e um autovalor de   t, isto  e, se existe

n = 0 em  Rn tal que Tv  = λ · v, seja v  = x1e1 + · · · + xrer, com xr = 0.

Entao, como er, Tei =  0  se  i < r, temos

λxr  = er, λv = er, Tv= er, x1Te1 + · · · + xrTer=

 er, xrTer

 =  trrxr.

Segue-se que   λ   =   trr. Assim, somente os numeros   tii   podem ser

autovalores de T .

Em segundo lugar, todos os tii sao, de fato, autovalores de t. Com

efeito, a matriz  t −  tiiIn  e triangular superior e o  i-esimo elemento

de sua diagonal e zero, logo nao e invertıvel. Consequentemente, tii

e um autovalor de  t.

4)  Seja U   =   { u 1, . . . , u  n} ⊂  E  uma base ortonormal, obtida pelo pro-

cesso de Gram-Schmidt a partir da base V   =   { v1, . . . , vn} ⊂   E. Amatriz de passagem de V  para U   ´  e triangular superior e seus autova-

lores s˜ ao todos positivos.

Page 219: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 219/358

208   Topicos Matriciais Secao 17

Com efeito, escrevendo

 u  j  =

ni=1

 pij vi,

sabemos que cada   u  j   pertence ao subespaco vetorial gerado por

 v1, . . . , v j, logo  u  j   =   p1j v1  + · · · + p jj v j. Isto mostra que a matriz de

passagem  p   = [ pij ] ∈   M(n × n)  e triangular superior. Alem disso,

como u  j  = | w j|−1 w j, onde o vetor w j  tem a forma

 w j  = v j −i<j

α ij vi,

vemos que p jj  = | w j|−1 e positivo, para cada j  =  1, . . . , n. Como vimos

acima, esses numeros p jj  sao os autovalores da matriz p.

17.C Decomposic ˜ ao de Cholesky

Mostraremos que toda matriz positiva a  = [aij ]

 ∈ M(n

×n) pode ser

expressa como o produto a  =  tT  · t, onde t ∈ M(n × n)  e uma matriztriangular superior cujos elementos da diagonal sao todos positivos.

 A expressao a  = tT  · t chama-se a decomposic ˜ ao de Cholesky da ma-

triz a.

Mais adiante (17.G) daremos outra prova da existencia da de-

composicao de Cholesky, por um metodo que permite obter a matriz

t por escalonamento a partir de  a.

 Agora, demonstraremos a possibilidade da decomposicao a = tT ·tusando Gram-Schmidt e a existencia da raiz quadrada de  a quandoa > 0 (isto e, quando a  e positiva).

Como vimos acima (17.A) existem vetores   v1, . . . , vn  ∈   Rn tais

que  aij   =  vi, v j, ou seja,  a   =   g ( v1, . . . , vn)  e a matriz de Gram dos

vetores v1, . . . , vn, os quais formam uma base de Rn, pois a  > 0.

Pelo processo de Gram-Schmidt, obtemos uma base ortonormal

 { u 1, . . . , u  n} ⊂ Rn a partir de v1, . . . , vn. Para i, j =  1, . . . , n, temos

 u i  =r

 pri vr, u  j  =s

 psj vs,

onde a matriz de passagem  p=[ pij ]  e triangular superior, com  pii>0

Page 220: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 220/358

Secao 17 Topicos Matriciais   209

para todo i. (17.B.) Usando o sımbolo de Kronecker δij, temos

δij  =  u i, u  j  =

nr,s=1

 pri psj  vr, vs =

nr,s=1

 priars psj ,

logo pT ap =  In. Pondo t  =  p−1, obtemos a  =  tT  · t.

 A decomposicao de Cholesky e  unica. Noutras palavras, se  s  e  t

sao matrizes triangulares superiores  n × n com diagonais positivas

e sT  · s =  tT  · t entao s  =  t.

Com efeito, de  sT .s   =   tT .t  resulta  st−1 = (sT )−1.tT . Como o pri-

meiro membro desta  ultima igualdade  e uma matriz triangular su-perior e o segundo  e triangular inferior, concluımos que  d  =  st−1 =

(sT )−1.tT  e uma matriz diagonal, com   dii   > 0   (e   dij   =   0   se   i =   j).

Segue-se imediatamente das igualdades acima que  s  = dt e t  =  ds.

Olhando para os elementos da diagonal, temos   sii   =   diitii   e   tii   =

diisii. Como sii  > 0 e  tii  > 0, isto implica dii  = 1, logo d  =  In e s  =  t.

17.D A Decomposic ˜ ao qr

Esta  e uma interpretacao matricial do processo de Gram-Schmidt.

Segundo ela, toda matriz invert´ ıvel a  = [aij ] ∈ M(n × n) admite uma

decomposic ˜ ao do tipo   a   =   qr , onde   q   ´  e ortogonal e   r   ´  e triangular

 superior, com elementos positivos na diagonal.

Para chegar a este resultado, chamemos de  v1, . . . , vn  as colunas

da matriz a  e de U 

  =  { u 1, . . . , u  n

} ⊂

Rn a base ortonormal obtida dos

 vi pelo processo de Gram-Schmidt. Como sabemos, a matriz p  = [ pij ]

de passagem da base V   =  { v1, . . . , vn} para a base U  e triangular su-

perior, com elementos positivos na diagonal. Alem disso, a matriz

q  = [qij ], cujas colunas sao os vetores  u  j   = (q1j, q2j, . . . , qnj),  e orto-

gonal.

Tomando a  i-esima coordenada de ambos os membros da igual-

dade vetorial u  j  =

 pkj vk , obtemos

qij  =

nk =1

 pkjaik  =

nk =1

aik  pkj  = (ap)ij ,

Page 221: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 221/358

210   Topicos Matriciais Secao 17

para quaisquer i, j =  1, . . . , n. Logo q =  ap. A matriz r =  p−1 e, como

vimos acima, (17.B), triangular superior com elementos positivos na

diagonal. De ap  =  q  resulta imediatamente a  =  qr.

Observac ˜ ao Dada a matriz invertıvel  a ∈ M(n × n), sao  unicas as

matrizes q, r  tais que a  =  qr,   q  e ortogonal, r  e triangular superior

e os elementos de sua diagonal sao positivos. Com efeito,   a   =   qr

escreve-se tambem como ap =  q, onde p =  r−1. Isto quer dizer que p

e a matriz de passagem da base V  = { v1, . . . , vn} ⊂ Rn, formada pelas

colunas de  a, para a base ortonormal U   =   { u 1, . . . , u  n} ⊂   Rn, dada

pelas colunas de   q. Ora, as quatro condicoes seguintes implicam

que cada u  j  e determinado univocamente a partir de  v1, . . . , v j:

1)   u  j  = p1j v1 +  p2j v2 + · · · + p jj v j;

2)   u  j  e ortogonal a v1, . . . , v j−1;

3)   | u  j| =  1;

4)   p jj  > 0.

Com efeito, 1) diz que  u  j  pertence ao subespaco  F ⊂  Rn gerado por

 v1, . . . , v j. 2) diz que u  j  pertence a reta  R, complemento ortogonal de

 { v1, . . . , v j−1} no subespaco F. Ja 3) restringe u  j a ser um dos 2 vetores

unitarios da reta R. E, finalmente, 4) diz que  u  j  e o vetor unitario de

R tal que  u  j, v j  e positivo.

 A condicao 1) diz que a matriz p  e triangular superior. 2) e 3) di-

zem que a matriz q e ortogonal, enquanto 4) afirma que os elementosda diagonal de  p  sao positivos. Juntas, elas garantem a unicidade

de q  e portanto a unicidade de p  =  a−1q.

 A observacao acima estabelece tambem a unicidade do processo

de Gram-Schmidt sob a condicao de que cada   u  j   pertenca ao sub-

espaco gerado por   v1, . . . , v j   e cumpra  u  j, v j   > 0   (alem, natural-

mente, de serem u 1, . . . , u   j  ortonormais).

Em resumo: a igualdade  a   =   qr   significa que as colunas de   q

formam a base ortonormal de Rn obtida das colunas de a  por Gram-Schmidt e r e a matriz de passagem das colunas de q para as colunas

de a.

Page 222: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 222/358

Secao 17 Topicos Matriciais   211

17.E Diagonalizac ˜ ao, Decomposic ˜ ao Polar e ValoresSingulares

O Corolario do Teorema 12.2 e o Teorema Espectral 13.6, quando for-mulados em termos de matrizes, apresentam as seguintes versoes:

1)   Se a matriz quadrada   a ∈   M(n × n)   possui   n   autovalores di-

 ferentes ent ˜ ao existe uma matriz invert´ ıvel   p ∈   M(n × n)   tal que

p−1ap  =  d   ´  e uma matriz diagonal. Os elementos da diagonal de  d

 s ˜ ao os autovalores de  a.

2)   Se a matriz   a ∈   M(n × n)   ´  e sim´  etrica ent ˜ ao existe uma matriz

ortogonal  q ∈ M(n × n) tal que qT 

aq = d  ´  e uma matriz diagonal. Os elementos da diagonal de  d  s ˜ ao os autovalores de  a.

Ja o Teorema 14.4 assume a seguinte forma:

3) Toda matriz quadrada a ∈ M(n × n) se exprime como produto a  =

pu , onde p ∈ M(n × n)  ´  e uma matriz n ˜ ao-negativa e u  ´  e ortogonal.

Finalmente, o Teorema 13.10 tem a versao matricial abaixo:

4)  Para toda matriz  a

 ∈ M(m 

×n)  existem matrizes ortogonais  p

 ∈M(m ×m ) , q ∈ M(n×n) , tais que paq =  d , onde d ∈ M(m ×n) ´  e umamatriz diagonal, d  = [dij ] , isto ´  e, dij  =  0 se i =  j. Para i  =  1, . . . , r  =

 posto de  a , tem-se dii  = σi  > 0 ,  σ2i   ´  e um autovalor de aT a (e de aaT  ) e,

 para i > r , dii  = 0.

Equivalentemente, podemos escrever   a   =   pT dqT  ou, mudando

de notacao, a  =  pdq. Esta se chama a  decomposic ˜ ao de a  a valores

 singulares   (singular value decomposition), pois os elementos nao-

nulos   σi   da diagonal de  d   sao os valores singulares de   a, ou seja,

σi  > 0 para todo i  = 1, . . . , n  e, alem disso,

σ21, . . . , σ2

r

sao autovalores de aT a.

Se  a ∈  M( 4 × 5)  e tem posto 3 entao a matriz  d  tem a seguinte

forma, com λ1  > 0, λ2  > 0 e  λ3  > 0:

d =

λ1   0 0 0 0

0 λ2   0 0 00 0 λ3   0 0

0 0 0 0 0

.

Page 223: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 223/358

212   Topicos Matriciais Secao 17

17.F A Decomposic ˜ ao lu

Cada uma das tres operacoes elementares sobre as linhas de uma

matriz, introduzidas na Secao 9, pode ser interpretada como a mul-

tiplicacao a esquerda por uma matriz invertıvel de tipo especial, cha-

mada uma matriz elementar.

Mais precisamente, uma  matriz elementar  m × m  e uma matriz

que resulta da aplicacao de uma operacao elementar  a matriz iden-

tidade  Im . Ha portanto 3 tipos de matrizes elementares. Vejamos

alguns exemplos no caso 4 × 4:

0 0 1 0

0 1 0 0

1 0 0 0

0 0 0 1

,

1 0 0 0

0 1 0 0

0 0 1 0

α 0 0 1

,

1 0 0 0

0 α 0 0

0 0 1 0

0 0 0 1

.

 As matrizes acima se obtem a partir de I 4  mediante as operacoes

L1 ↔ L3, L 4 + αL1  e αL2  respectivamente.

 Afirmamos que aplicar uma operacao elementar a uma matriz

com  m   linhas  e o mesmo que multiplica-la  a esquerda pela matriz

que resulta de aplicar a mesma operacao  as linhas de Im .

Isto decorre da seguinte observacao (cuja verificacao deixamos

a cargo do leitor): se  a →   a′  simboliza uma determinada operacao

elementar sobre matrizes com m  linhas entao, para toda b ∈ M(m ×m ), tem-se   (ba)′   =   b′

 · a. Admitido este fato, tomamos m   =   I′m   e

vemos que, para toda matriz a  com  m  linhas, vale

a′  = (Im  · a)′  = I′m  · a = m · a.

Portanto o metodo de eliminacao de Gauss para reduzir uma ma-

triz de m  linhas a forma escalonada consiste em multiplica-la suces-

sivamente a esquerda por matrizes elementares do tipo 1 (transposi-cao de duas linhas) ou do tipo 2 (subtrair de uma linha um multiplo

de outra linha). Uma matriz elementar do tipo 2, que corresponda  a

Page 224: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 224/358

Secao 17 Topicos Matriciais   213

operacao Li − αL j, com j < i, tem a forma abaixo:

1

. . .

1...

  . . .

−α . . . 1. . .

1

Os elementos nao indicados fora da diagonal sao nulos. O numero−α   esta na linha   i   e na coluna   j. A fim de tornar igual a zero o

elemento   aij   da matriz   a   = [aij ]   mediante essa pre-multiplicacao,

deve-se tomar α  =  aij/a jj. O elemento a jj, que se supoe = 0, chama-

se o  pivo. Para eliminar (tornar iguais a zero) todos os elementos

abaixo da diagonal na coluna j da matriz a, deve-se pre-multiplica-la

pelo produto das m − j matrizes da forma acima que se obtem fazendo

sucessivamente  i  =  j + 1 , . . . , m  . Isto equivale a pre-multiplicar pela

matriz

m j  =

1. . .

1

−α  j+1,j

...  . . .

−α mj   . . . 1

(*)

(com os  α ’s na   j-esima coluna), onde  α rj   =   arj/a jj. Por exemplo, sem  = 4  e  j  =  1, vemos facilmente que

1 0 0 0

−α 2   1 0 0

0 0 1 0

0 0 0 1

·

1 0 0 0

0 1 0 0

−α 3   0 1 0

0 0 0 1

·

1 0 0 0

0 1 0 0

0 0 1 0

−α  4   0 0 1

=

1 0 0 0

−α 2   1 0 0−α 3   0 1 0

−α  4   0 0 1

.

Page 225: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 225/358

214   Topicos Matriciais Secao 17

Suponhamos que, durante o processo de escalonamento de uma

dada matriz, nunca haja necessidade de se efetuar transposicao de

linhas. Entao podemos assegurar que existem matrizes  m1, . . . , mm do tipo (*) acima, tais que

mm . . . m2m1a =  u,

onde  u  e uma matriz escalonada. Se  a  for uma matriz quadrada,

u  e triangular superior. (Daı a notacao:   u  provem de upper trian-

gular, em ingles.) Se u   = [ u ij ] ∈   M(m × n)   (alem de nao requerer

transposicoes de linha em seu escalonamento) tem posto maximo (m 

ou n) entao o primeiro elemento nao-nulo de sua i-esima linha e u ii.Portanto, neste caso, os elementos u ii  da diagonal de u  sao os pivos,

logo sao diferentes de zero.

Evidentemente, toda matriz elementar   e invertıvel, logo toda

matriz m j  do tipo (*) acima possui uma inversa e  e claro que

m−1 j   =

1. . .

1α  j+1,j

...  . . .

α mj   1

Segue-se entao que toda matriz a cujo escalonamento nao requer

transposicoes de linhas se escreve como

a =  m−11   m

−12   . . . m

−1m    u = lu

onde as m j  tem a forma (*) e u  e escalonada.

 Agora ocorre um fato notavel. Embora o produto  mm . . . m2m1

nao tenha nenhuma expressao especial, vale a igualdade

l =  m

−1

1   m

−1

2   . . . m

−1

m   =

1

α 21   1

α 31   α 32

. .

....  ...   1

α m1   α m2   α m,m −1   1

,

Page 226: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 226/358

Secao 17 Topicos Matriciais   215

onde  α ij  =  a( j)ij  /a

( j) jj   . Nesta notacao, indicamos com  a( j) = m j . . . m1  a

matriz que se obtem depois da eliminacao dos elementos abaixo da

diagonal na j-esima coluna. (Portanto j  = 0, 1, . . . , m   − 1, e a(0)

= a.)Estamos admitindo que nao houve necessidade de efetuar trans-

posicao de linhas, ou seja, que em todas as etapas se tem o pivo

(a( j)) jj = 0.

Concluımos entao que, mediante essa hipotese, a matriz a  se es-

creve como um produto

a =  lu,

onde l

∈ M(m 

×m )  e uma matriz triangular inferior (lower triangu-

lar) com elementos diagonais todos iguais a 1 e u  e uma matriz esca-lonada. Se a for uma matriz quadrada  m × m  entao u ∈  M(m × m )

sera uma matriz triangular superior. Esta   e a chamada   decom-

 posic ˜ ao lu  da matriz a.

E importante observar os seguintes fatos a respeito da decompo-

sicao a  =  lu.

1o¯   ) O metodo gaussiano de eliminacao fornece diretamente os ele-

mentos das matrizes l  e  u.

2o ) Quando se dispoe da decomposicao a  =  lu, a solucao do sistemaax   =   b, com  b ∈   M(m  × 1), se reduz a resolver o sistema   ly   =   b

e, depois de obtida  y, o sistema  ux   =   y. O primeiro se resolve de

cima para baixo e o segundo de baixo para cima, pois  l  e triangular

inferior e u  e escalonada.

3o¯   ) A maior vantagem computacional da decomposicao a=lu ocorre

quando se tem de resolver um grande numero de equacoes  ax  =  b,

com a mesma matriz   a   e muitos vetores   b. Dispondo da decom-

posicao   a   =   lu   nao   e preciso repetir muitas vezes o processo deeliminacao gaussiana.

4o¯   ) A priori, nao se sabe quais sao (nem mesmo se vao ser ne-

cessarias) as transposicoes de linhas durante o processo de escalona-

mento de uma matriz a. Entretanto, depois de efetuado o processo,

dispomos da relacao de todas as transposicoes feitas. Efetuando, na

mesma ordem em que foram feitas, todas essas transposicoes nas li-

nhas da matriz identidade, obtemos uma matriz p ∈ M(m × m ), que

se chama uma  matriz de permutac ˜ ao. O produto pa  corresponde aefetuar sobre a matriz  a, antecipadamente, todas as transposicoes

de linhas que seriam necessarias durante o escalonamento. Por-

Page 227: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 227/358

216   Topicos Matriciais Secao 17

tanto a matriz pa pode ser escalonada usando apenas operacoes ele-

mentares do tipo Li − αL j. Assim, tem-se a decomposicao pa  =  lu.

5o   ) Uma condicao suficiente (mas nao necessaria) para que umamatriz  a ∈ M(m × n) possa ser escalonada sem transposicoes de li-

nhas, portanto admita uma decomposicao A  =  lu, e que suas subma-

trizes principais sejam invertıveis. (Para todo numero natural

r ≤ min {m, n}, a  submatriz principal  de ordem  r da matriz  a  = [aij ]

e a matriz ar ∈ M(r × r) formada pelos elementos aij  com 1 ≤ i ≤ r  e

1 ≤ j ≤ r.)

Provemos este fato no caso de uma matriz  a ∈ M(3 × 4). O argu-

mento no caso geral  e o mesmo mas a notacao se torna mais compli-cada e pode obscurecer a ideia, que e extremamente simples. Seja

a =

a11   a12   a13   a14

a21   a22   a23   a24

a31   a32   a33   a34

  .

Como a matriz principal [a11 ]  e invertıvel, temos a11 = 0. Usando

a11  como pivo, efetuamos as operacoes elementares

L2 − a21

a11L1   e   L3 −

 a31

a11L1

sobre a matriz a, obtendo a nova matriz

a(1) =

a11   a12   a13   a14

0 b22   b23   b24

0 b32   b33   b34

  .

 A matriz   a11   a12

0 b22

resulta da matriz principal

a2  =

a11   a12

a21   a22

pela aplicacao da operacao elementar   L2   − (a21/a11)L1, logo   e in-vertıvel. Como  e triangular, isto obriga   b22 =   0. Assim podemos

tomar  b22  como pivo. (Na notacao geral, seria  a(1)22   em vez de  b22.)

Page 228: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 228/358

Page 229: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 229/358

218   Topicos Matriciais Secao 17

17.G Matrizes Positivas: Cholesky versus lu

Quando a matriz  a   = [aij ]

 ∈  M(m 

×m )  e positiva, afirmamos que

todas as submatrizes principais  ar   = [aij ],  1 ≤   i, j ≤  r, sao tambempositivas, portanto invertıveis. Com efeito, dado o vetor nao-nulo

 v = (x1 . . . , xr), tomamos v = (x1, . . . , xm ), com xi  = xi para i = 1, . . . , r

e  xi   =  0  para  i  =  r +  1, . . . , m  . Entao  v  e um vetor nao-nulo em  Rm ,

logor

i,j=1

aijxix j  =

m i,j=1

aijxix j  > 0.

Portanto o processo de escalonamento, quando aplicado a uma ma-triz positiva a, nao requer transposicoes de linhas. Assim, tem-se a

decomposicao a  =  lu.

 Vemos que toda matriz positiva possui duas decomposicoes: Cho-

lesky e lu.  E natural indagar qual a relacao entre elas. Mostraremos

que sao muito proximas: qualquer delas se obtem a partir da outra

de modo simples. Antes porem precisamos estabelecer a unicidade

abaixo.

Se a matriz   a   e invertıvel entao existe uma  unica maneira deescreve-la como um produto a  = lu, onde l  e triangular inferior, com

os elementos da diagonal todos iguais a 1, e u  e triangular superior.

Com efeito, sendo  a  invertıvel, a igualdade  a  = lu obriga l e  u a

serem invertıveis. Portanto

a =  l1u1  = l2u2

⇒l−1

2   l1  = u2u−11   .

Ora, o primeiro membro da  ultima igualdade e uma matriz triangu-

lar inferior e o segundo membro  e triangular superior. Logo ambassao matrizes diagonais. Como os elementos diagonais de l  sao todos

iguais a 1, segue-se que l1  = l2  = Im , portanto u1  = u2  e fica provada

a unicidade da decomposicao a  =  lu  no caso de  a  ser invertıvel.

 Voltemos  a matriz positiva a ∈ M(m × m ), que admite as decom-

posicoes  a   =  tT .t   =   l.u, onde  l  e triangular inferior com  1’s na dia-

gonal, t  e  u  sao triangulares superiores e todos os elementos da dia-

gonal de t  sao positivos. Se indicarmos com d ∈ M(m × m ) a matriz

diagonal com  dii   =  tii, entao  a  = (tT d−1)(dt), onde tT d−1 e triangu-lar inferior com 1’s na diagonal e dt  e triangular superior. Segue-se

da unicidade acima provada que  l  =  tT d−1 e  u  =  dt, mostrando as-

Page 230: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 230/358

Secao 17 Topicos Matriciais   219

sim como obter a decomposicao  a  =  lu  a partir da decomposicao de

Cholesky a  =  tT .t.

 A expressao  u   =   dt  mostra, em particular que se a matriz  a  epositiva entao, em sua decomposicao   a   =   lu, os elementos   u ii   da

diagonal de  u   (isto  e, os  pivos  da eliminacao gaussiana) sao todos

positivos. A unicidade da decomposicao  lu  implica que esses pivos

sao univocamente determinados a partir da matriz  a.

Mostremos agora como se pode obter a decomposicao de Cholesky

de uma matriz positiva a partir de sua decomposicao a  =  lu.

Como   u ii   > 0   para   i   =   1 , . . . , m  , podemos formar uma matriz

diagonal  d  = [dij ] pondo dij  = 0 se i

 = j e dii  =

 √  u ii. Entao escreve-

mos  t  =  d−1u. Evidentemente,  a  = (ld)(d−1u). Portanto teremos a

decomposicao de Cholesky a  =  tT .t desde que provemos que tT  = ld,

ou seja, que uT .d−1 = ld.

Ora, se tomarmos a transposta de ambos os membros da igual-

dade   a   =   lu   obteremos   a   =   aT  =   uT lT , logo podemos escrever

a = uT .d−2.d2.lT . Mas uT .d−2 e triangular inferior com  1’s na diago-

nal. (Na realidade, d  foi definida com esse proposito.) E  d2lT  e tri-

angular superior. Pela unicidade da decomposicao a  =   boldlu, vem

uT .d−2 =   l  (e  d2.lT  =  u). Daı resulta  uT .d−1 =   ld, como querıamosprovar.

Em suma: se   a   =   lu   e a decomposicao de uma matriz posi-

tiva, sua decomposicao de Cholesky  e   a   = (ld)(d−1u), onde   d  e a

matriz diagonal formada pelas raızes quadradas dos elementos (ne-

cesssariamente positivos) da diagonal de  u. Isto nos da um metodo

pratico para obter a decomposicao de Cholesky, como veremos no

Exemplo 17.3.

Observac ˜ ao   O argumento acima prova, na realidade, que se   a   euma matriz simetrica cujos pivos sao todos positivos entao existe

uma decomposicao  a  = tT .t, logo a  e uma matriz positiva. (Observe

que, os pivos sendo positivos, a matriz  a  e invertıvel.)

Exemplo 17.3. Como exemplo de matriz positiva, tomemos a matriz

de Gram dos vetores  u  = (1,2,1),  v  = (2,1,2),  w  = (1,1,2). Escalo-

nando-se, obtemos

6 6 56 9 7

5 7 6

L2−L1−→L3− 5

6L1

6 6 50 3 2

0 2 11/6

L3− 23

L2−→ 6 6 50 3 2

0 0 1/2

Page 231: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 231/358

220   Topicos Matriciais Secao 17

Isto nos fornece a decomposicao lu:

6 6 5

6 9 7

5 7 6

  =1 0 0

1 1 056

23   1

6 6 5

0 3 2

0 0 1/2

  .

Para obter a decomposicao de Cholesky, tomamos a matriz diagonal

d =

√ 

6 0 0

0√ 

3 0

0 0√ 

2/2

e calculamos

tT  = ld  =

1 0 0

1 1 056

23   1

√ 

6 0 0

0√ 

3 0

0 0√ 

22

=

√ 

6 0 0√ 6

√ 3 0

5√ 6

2√ 3

√ 2

2

.

Entao a decomposicao de Cholesky da matriz dada e

6 6 5

6 9 7

5 7 6

  =

√ 6 0 0

√ 6 √ 3 0

5/√ 

6 2/√ 

3√ 

2/2

√ 

6√ 

6 5/√ 

6

0 √ 3 2/√ 30 0

√ 2/2

  .

Exercıcios

17.1.  Prove que os vetores  v1, . . . , vk  ∈  E  geram um subespaco veto-rial de dimensao  r  se, e somente se, a matriz de Gram  g ( v1, . . . , vk )

tem posto r.

17.2.  Se dim E ≤  dim F, prove que existe uma transformacao linear

ortogonal  A :  E → F tal que Av1  = w1, . . . , A vk  = wk  se, e somente se,

as matrizes de Gram g ( v1, . . . , vk ) e  g ( w1, . . . , wk ) sao iguais.

17.3.   Sejam   a  ∈   M(n ×  n)   uma matriz positiva e   b  ∈   M(n ×m )   uma matriz de posto  n. Ache vetores  v

1, . . . , v

m  ∈  R

n tais que

g ( v1, . . . , vm ) = bT ab.

17.4.  Prove que aT a  e a matriz de Gram dos vetores-coluna de  a.

Page 232: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 232/358

Secao 17 Topicos Matriciais   221

17.5.   Um operador   T :  E

 →  E   chama-se  triangulariz´ avel  quando o

espaco vetorial E  possui uma base, relativamente a qual a matriz de

T  e triangular. Prove:

(a)   T  e triangularizavel se, e somente se, existe uma cadeia ascen-

dente  {0}  =  Fo ⊂  F1 ⊂ · · · ⊂  Fn   =  E, de subespacos invariantes

por T , com dim  Fi  = i   (i = 0, . . . , n).

(b)   T  e triangularizavel se, e somente se, existe uma cadeia descen-

dente  E  = Gn ⊃ · · · ⊃ G1 ⊃ Go  =  {0} de subespacos invariantes

por T  tais que dim  Gi  = i  para i  =  0, 1, . . . , n.

(c) Se existe uma base de   E   na qual a matriz de   T   e triangular

superior, existe tambem uma base de  E  na qual a matriz de  T 

e triangular inferior.

(d)   T  e triangularizavel se, e somente se,  T ∗  e triangularizavel.

17.6.   Seja t  = [tij ] ∈ M(n × n) uma matriz triangular. Prove que os

elementos  tii  da diagonal de t sao autovalores do operador  T :  Rn →Rn cuja matriz na base canonica e t. Conclua que t  e diagonalizavel

quando sua diagonal nao possuir elementos repetidos.

17.7.   Seja   A :  R3 →   R3 o operador definido por   A(x,y,z ) = (x  +

2y + 3z,y + 2z,3z ). Obtenha dois autovetores L.I. para  A  e prove que

qualquer outro autovetor de A  e multiplo de um desses dois. Conclua

que A  nao e diagonalizavel, embora sua matriz seja triangular.

17.8.   Considere o operador  B :  R3

→  R3, dado por  B(x,y,z ) = (x +

2z,y+3z, 4z ), cuja matriz e triangular. Ache uma base de R3 formadapor autovetores de B.

17.9.  Dada a matriz positiva

a =

1 2

2 5

,

determine

t =x y

0 z 

de modo que se tenha a decomposicao de Cholesky a  =  tT .t.

Page 233: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 233/358

222   Topicos Matriciais Secao 17

17.10. Use o metodo do exercıcio anterior, de modo a obter a decom-

posicao de Cholesky da matriz positiva

a =

3 4 6

 4 6 9

6 9 14

.

17.11. Aplicando o processo de Gram-Schmidt  as colunas da matriz

a = 1 2 2

3 3 4

 4   −1 3 ,

obtenha a decomposicao a  = qr, onde q  e ortogonal e r  e triangular

superior, com elementos positivos na diagonal.

17.12.  Mostre como obter, a partir dos teoremas demonstrados nas

secoes anteriores, cada uma das matrizes cuja existencia  e assegu-

rada nos  ıtens 1), 2), 3) e 4) de  17.E   (Por exemplo, no item 1), se

A:  Rn → R

n ´e o operador cuja matriz na base can

ˆonica E ⊂

 Rn ´

e  aentao  p  e a matriz cujas colunas sao os vetores de uma base orto-

normal U   =  { u 1, . . . , u  n} ⊂ Rn, formada por autovetores de  A e  d  e a

matriz diagonal formada pelos autovalores correspondentes.)

17.13. Dada a matriz

a =

1 1

2 1

,

obtenha sua decomposicao a  =  pdq  a valores singulares.

17.14. Assinale V(erdadeiro) ou F(also)

( ) Toda matriz quadrada escalonada e triangular superior.

( ) Toda matriz (quadrada) triangular superior e escalonada.

( ) As duas afirmacoes anteriores sao verdadeiras quando se trata

de matrizes invertıveis.

( ) Se a matriz  a  admite uma decomposicao do tipo  a  =   lu  entao

todas as submatrizes principais de a  sao invertıveis.

Page 234: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 234/358

Secao 17 Topicos Matriciais   223

17.15. Prove que a matriz

a =0 a

b c

admite uma decomposicao do tipo a  =  lu  se, e somente se, b  =  0.

17.16. Obtenha a decomposicao lu  das matrizes

a =

1 2 2

3 3 4

 4   −1 3

  e   b =

2 1 0 4

 4 5 1 7

2   −8   −1 12

  .

17.17.  Seja a ∈ M(m × n) uma matriz de posto maximo que admite

uma decomposicao do tipo a  =  lu′, onde l ∈ M(m × m )  e triangular

inferior, com elementos da diagonal todos iguais a 1, e u′ ∈ M(m ×n)

e escalonada. Prove que existem uma matriz diagonal invertıvel

d ∈  M(m × m )  e uma matriz escalonada  u ∈  M(m × n), com pivos

todos igual a 1, tais que a  =  ldu.

17.18. Obtenha a decomposicao lu  da matriz do Exemplo 9.3.

17.19.   A partir da decomposicao   lu, obtenha a decomposicao de

Cholesky das matrizes positivas   a   =   matriz de Gram dos vetores

 u  = (1,2,1), v  = (1,1,2), w  = (2,1,3) e  b  =  produto da matriz

m =

1 1 1 1

1 2 1 1

2 1 2 2

2 2 1 3

por sua transposta.

17.20.  Foi visto no texto que se  a  =  lu  e a decomposicao da matriz

positiva  a  e  d  e a matriz diagonal formada pelas raızes quadradas

dii   = √ 

 u ii   dos pivos entao   a   = (ld) · (d−1 u)   e a decomposicao de

Cholesky de a. Modifique ligeiramente este argumento para provar

que existe uma decomposicao de Cholesky  a   =   tT .t   para qualquer

matriz nao-negativa  a. (Mas agora nao ha unicidade.)

Page 235: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 235/358

18

Formas Quadraticas

Uma forma quadr´ atica num espaco vetorial E  ´  e uma func ˜ ao que, em

termos das coordenadas de um vetor relativamente a uma base de  E ,

 se exprime como um polinomio homogˆ eneo do segundo grau. As for-

mas quadr ´ aticas ocorrem com grande destaque em problemas de oti-mizac ˜ ao (m ´ aximos e m´ ınimos), no estudo das superf´ ıcies qu´ adricas,

na Geometria Diferencial, na Mecanica, etc. Em todas essas situa-

c˜ oes, ´  e relevante o conhecimento do sinal (positivo ou negativo) que

a forma pode assumir ou, mais precisamente, dos seus autovalores.

 Nesta sec ˜ ao, ´  e feito um estudo conciso, por´  em abrangente, dos princi-

 pais pontos b ´ asicos referentes a essas func˜ oes e de suas relac˜ oes com

os operadores lineares, finalizando com o m´  etodo de Lagrange para

diagonalizac ˜ ao e a classificac ˜ ao das superf´ ıcies qu´ adricas.Sejam  E,  F  espacos vetoriais. Uma  forma bilinear  b :  E × F → R

e uma funcao b( u, v), linear em cada uma das duas variaveis u  ∈ E,

 v ∈ F. Mais precisamente, para quaisquer  u, u ′ ∈ E, v, v′ ∈ F e α  ∈ Rdevem valer:

b( u + u ′, v) = b( u, v) + b( u ′, v);   b(αu,v) = αb( u, v)

b( u, v + v′) = b( u, v) + b( u, v′);   b( u, αv) = αb( u, v).

 As operacoes evidentes de soma e produto por um numero fazemdo conjunto B (E × F) das formas bilineares  b :  E × F → R  um espaco

vetorial.

Page 236: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 236/358

Secao 18 Formas Quadraticas   225

Tomando bases U   =   { u 1, . . . , u  m } ⊂   E  e V   =   { v1, . . . , vn} ⊂   F, os

numeros  bij   =   b( u i, v j)  definem uma matriz  b   = [bij ] ∈   M(m × n),

chamada a matriz da forma bilinear b  relativamente as bases U  , V .Conhecidos os valores bij  = b( u i, v j), os quais podem ser tomados

arbitrariamente, a forma bilinear   b :  E × F →   R   fica inteiramente

determinada pois, para  u   =   Σxi u i ∈   E  e  v   =   Σy j v j ∈   F   quaisquer,

tem-se

b( u, v) =

i,j

xi y j b( u i, v j) =

i,j

bijxi y j, 1 ≤ i ≤ m, 1 ≤ j ≤ n.

 A correspondencia que associa a cada forma bilinear  b :  E × F → R

sua matriz  b   = [bij ]   relativamente  as bases U ⊂   E, V ⊂   F   (supos-

tas fixadas)  e um isomorfismo entre os espacos vetoriais B (E × F)  e

M(m × n). Segue-se que B (E × F) tem dimensao mn.

Dadas novas bases U ′   =   { u ′1, . . . , u  ′m } ⊂   E  e V ′   =   { v′1, . . . , v′n} ⊂   F

sejam

 u ′ j  =

i=1

 pij u i, v′ j  =

n

i=1

qij vi

e b′ij  = b( u ′i, v′ j). A matriz da forma bilinear b relativamente as bases

 U ′   e V ′   e  b′   = [b′ij ] ∈   M(m  × n). O teorema abaixo exprime b′   em

funcao de   b   e das matrizes de passagem   p   = [ pij ] ∈   M(m  × m ),

q = [qij ] ∈ M(n × n).

Teorema 18.1.   As matrizes  b  e  b′ , da forma bilinear  b  nas bases

 U  , V   e U ′ , V ′   respectivamente, se relacionam pela igualdade   b′   =

pT 

bq , onde p  ´  e a matriz de passagem de U   para U ′  e q  ´  e a matriz de passagem de V  para V ′.Demonstrac  ao:  Para todo i  =  1, . . . , m   e todo j  =  1, . . . , n, temos

b′ij  = b( u ′i, v′ j) = b

  m r=1

 pri u r,

ns=1

qsj vs

 =

r,s

 priqsj b( u r, vs)

=r,s

 priqsjbrs  =r,s

 pribrsqsj  = (pT bq)ij ,

logo b′  = pT bq.

Page 237: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 237/358

226   Formas Quadraticas Secao 18

Embora transformacoes lineares e formas bilineares sejam am-

bas representaveis por matrizes (quando sao fixadas bases), vemos

que, ao mudarem essas bases, a matriz de uma forma bilinear sealtera de maneira diferente daquela de uma transformacao linear.

Quando E  =  F, nos referiremos sempre (salvo aviso em contrario)

a matriz de uma forma bilinear  b :  E × E → R  relativamente a uma

unica base U   = { u 1, . . . , u  m } ⊂ E. Essa matriz e b = [bij ] ∈ M(m ×m ),

onde bij  = b( u i, u  j).

Se b′  e a matriz da mesma forma b em relacao a outra base U ′ ⊂ E

entao  b′   =   pT bp, onde  p  e a matriz de passagem da base U   para

a base U 

′. A correspondencia  b →   b  define um isomorfismo entre

B (E × E)   e   M(m  × m ), estabelecido com ajuda da base U . Dados

 u  =  Σxi u i  e  v  =  Σyi u i  em  E, se a matriz de  b  na base U   e  b  = [bij ],

tem-se

b( u, v) =

m i,j=1

bijxi y j .

 Assim, b( u, v)  e um polinomio homog eneo do 2o¯  grau em relacao

as coordenadas de u  e  v.

Uma forma bilinear   b :  E × E →   R   chama-se  sim´  etrica   quando

b( u, v) =  b( v, u )  para quaisquer u, v ∈  E. Para que  b  seja simetrica

e suficiente que sua matriz em relacao a uma base U ⊂   E   seja

simetrica e e necessario que sua matriz em relacao a qualquer base

de E  seja simetrica. Com efeito, se bij  = b ji  entao

b( v, u ) =

i,j

bij yix j  =

i,j

bijx j yi

=i,j

b jix j yi  =α,β

bαβxα  yβ  = b( u, v).

Observac  ao.  O quarto sinal de igualdade na sequencia acima faz

uso de uma manipulacao que pode parecer desonesta mas  e perfei-

tamente correta. O princıpio  e o seguinte: num somatorio, o nome

do “ındice de somacao”, ou “ındice mudo”, nao tem a menor im-

portancia:m 

i=1

z i  =

m α =1

z α  =

m r=1

z r  = z 1 + · · · + z m .

Page 238: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 238/358

Secao 18 Formas Quadraticas   227

O que importa  e que ao substituir o ındice mudo i por  β (bem como

 j  por  α ) essa substituicao se faca em todos os lugares onde  i  ocorra

(assim como j) e somente nesses lugares. Analogamente, uma forma bilinear   b :   E ×   E →   R   chama-se

anti-sim´  etrica   quando   b( u, v) = −b( v, u )   para   u, v ∈   E   quaisquer.

Para que  b  seja anti-simetrica  e suficiente que se tenha  b( u i, u  j) =

−b( u  j, u i) ou seja, bij  = −b ji  numa base { u 1, . . . , u  m } ⊂ E.

Uma forma bilinear b, ao mesmo tempo simetrica e anti-simetri-

ca, deve ser nula. Este fato, juntamente com a igualdade

b( u, v) = 1

2

[b( u, v) + b( v, u )] + 1

2

[b( u, v) − b( v, u )],

mostra que o espaco B (E × E)   das formas bilineares  b :  E × E →   R

e a soma direta de dois subespacos, um deles formado pelas formas

simetricas e o outro pelas formas anti-simetricas.

Exemplo 18.1.  Dados os funcionais lineares  f :  E → R,  g :  F → R, a

funcao  b :  E × F →   R, definida por  b( u, v) =   f( u )g( v),  e uma forma

bilinear, chamada o  produto tensorial  de f e g. Se  E  e F  sao dotados

de produto interno, fixados   u o

 ∈  E   e   vo

 ∈  F, a funcao   b :  E

 × F →R, onde   b( u, v) =  u, u o ·  v, vo,   e uma forma bilinear. No caso

particular em que   E   =   F, dados   f, g :  E →   R, funcionais lineares,

entao as igualdades

(f • g)( u, v) = f( u )g( v) + f( v)g( u )

e

(f ∧ g)( u, v) = f( u )g( v) − f( v)g( u ),

definem formas bilineares f•g, f∧g :  E×E→ R, a primeira simetricae a segunda anti-simetrica.

Teorema 18.2.  Seja E um espaco vetorial de dimens˜ ao finita provido

de produto interno. Para cada forma bilinear b :  E × E→ R  existe um

´ unico operador linear B :  E→ E tal que

 u, Bv = b( u, v)   para u, v ∈ E quaisquer.

 A correspondˆ encia  b →   B , assim definida, ´  e um isomorfismo entre

os espacos vetoriais B (E × E)  e L(E). A forma bilinear  b   ´  e sim´  etrica(respect. anti-sim´  etrica) se, e somente se, o operador B  ´  e auto-adjunto

(respect. anti-sim´  etrico).

Page 239: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 239/358

228   Formas Quadraticas Secao 18

Demonstrac ˜ ao:   Para cada  vo ∈  E, a funcao  f :  E

→R, definida por

f( u ) = b( u, vo),  e um funcional linear. Pelo Teorema 11.1, existe um

unico vetor em  E, que indicaremos com  Bvo, tal que  f( u ) =  u, Bvo,ou seja  u, Bvo = b( u, vo) para todo u ∈ E. Como vo ∈ E  e arbitrario,

acabamos de mostrar que existe uma  unica funcao B :  E → E tal que

 u, Bv = b( u, v) para quaisquer u, v ∈ E. Dados v, v′ ∈ E, tem-se u, B( v + v′)

 =  b( u, v + v′)= b( u, v) + b( u, v′)=  u, Bv +

 u, Bv′

=  u, Bv + Bv′para todo u ∈ E, logo B( v+ v′) = Bv +Bv′. De modo analogo se verifica

que  B(αv) = α (Bv) para α  ∈ R e v ∈ E  quaisquer, portanto B :  E → E

e linear. Em relacao a uma base ortonormal U   =   { u 1, . . . , u  m } ⊂   E,

o  ij-esimo elemento da matriz de  B  e ei, Be j   =  b(ei, e j) =   ij-esimo

da matriz de   b. Assim, a forma bilinear   b   e o operador   B   que a

ela corresponde tem a mesma matriz na base U . Daı decorre que a

correspondencia  b →

  B  e um isomorfismo entre B (E × E)  e L(E)  e

que  B  e auto-adjunto (respect. anti-simetrico) se,e somente se,  b  e

simetrica (respect. anti-simetrica).

Uma funcao  ϕ :  E → R  chama-se uma  forma quadr´ atica quando

existe uma forma bilinear  b :  E × E → R  tal que  ϕ( v) =  b( v, v)  para

todo v ∈ E.

Se, em vez da forma bilinear b tomarmos a forma bilinear sime-

trica

b′( u, v) = 1

2[b( u, v) + b( v, u )],

teremos ainda

ϕ( v) = b( v, v) =  1

2[b( v, v) + b( v, v)] = b′( v, v).

Portanto, nao ha perda de generalidade em se exigir que a forma

quadratica ϕ( v) = b( v, v) provenha de uma forma bilinear simetrica

b. Isto  e o que faremos doravante. Com uma vantagem: se   b   e

simetrica, todos os seus valores   b( u, v)  podem ser determinados a

partir dos valores b( v, v) = ϕ( v) da forma quadratica  ϕ. Com efeito,

tem-se a seguinte f ormula de polarizac ˜ ao:

b( u, v) = 1

2[b( u + v, u + v) − b( u, u ) − b( v, v)].

Page 240: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 240/358

Secao 18 Formas Quadraticas   229

Se   b   = [bij ]   e a matriz da forma bilinear   b   na base U   =

 { u 1, . . . , u  m } ⊂ E  entao, para v  =  Σxi u i, tem-se

ϕ( v) =

m i,j=1

bijxix j .

Note que, sendo  b  uma matriz simetrica (como sempre supore-

mos quando tratarmos de formas quadraticas), cada parcela com

i =   j   aparece duas vezes na soma acima: uma vez como   bijxix j   e

outra vez como b jix jxi, o que e o mesmo.

 A   matriz da forma quadr´ atica   ϕ   na base U   e, por definicao, a

matriz   b, nesta mesma base, da forma bilinear   b   tal que   ϕ( v) =

b( v, v). Se a matriz de passagem   p   levar a base U   na base U ′, a

matriz b′ da forma quadratica ϕ na base U ′ sera dada por b′  = pT bp.

Note que se E  possuir produto interno e as bases U , U ′ forem am-

bas ortonormais, a matriz  p  sera ortogonal, logo  pT  =   p−1. Entao

b′   =   p−1bp. Isto confirma o que foi visto no Teorema 18.1: relati-

vamente a bases ortonormais a matriz da forma bilinear  b coincide

com a do operador  B, que lhe corresponde de maneira intrınseca.

Teorema 18.3.  Seja E um espaco vetorial de dimens˜ ao finita munido

de produto interno. Dada uma forma bilinear sim´  etrica b :  E×E→ R ,

 existe uma base ortonormal U  = { u 1, . . . , u  m } ⊂ E  tal que b( u i, u  j) = 0

 se i = j.

Demonstrac ˜ ao: Pelo Teorema 18.2, existe um operador auto-adjun-

to   B :  E →   E   tal que   b( u, v) = 

 u, Bv

  para quaisquer   u, v ∈

  E. O

Teorema Espectral assegura a existencia de uma base ortonormal

 U   =   { u 1, . . . , u  m }  ⊂   E   tal que   Bu i   =   λi u i   (i   =   1 , . . . , m  ). Entao

i = j ⇒ b( u i, u  j) =  u i, Bu  j =  u i, λ j u  j =  λ j  u i, u  j =  0.

O teorema acima e a versao, para formas bilineares, do Teorema

Espectral. Por sua vez a versao matricial do Teorema 18.3  e a se-

guinte: para toda matriz simetrica b  = [bij ] ∈ M(m ×m ), existe uma

matriz ortogonal p ∈ M(m ×m ) tal que pT bp =  p−1bp  e uma matriz

diagonal. A diagonal de d   =   pT bp  e formada pelos autovalores deb, os quais se dizem tambem autovalores da forma bilinear  b  e da

forma quadratica ϕ( v) = b( v, v).

Page 241: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 241/358

230   Formas Quadraticas Secao 18

Em termos das coordenadas dos vetores u  =  Σxi u i e  v  = Σy j u  j re-

lativamente  a base U  do Teorema 18.3 a forma bilinear b  se exprime

como b( u, v) = Σλixi yi .

Em particular, a forma quadratica   ϕ :  E →   R,   ϕ( u ) =   b( u, u ),

para v = Σyi u i   (expressao relativa  a base U )  e dada por uma combi-

nacao linear de quadrados:

ϕ( v) = Σλi y2i   = λ1 y

21 + · · · + λm  y

2m .

E costume numerar os autovalores  λi em ordem crescente:   λ

1 ≤λ2 ≤ · · · ≤ λm .

 A forma quadratica   ϕ :   E →   R   diz-se   n ˜ ao-negativa   quando

ϕ( v) ≥  0  para todo  v ∈  E,  positiva  quando  ϕ( v)  > 0 para todo  v =  0

em E, n ˜ ao-positiva quando ϕ( v) ≤ 0 para todo v ∈ E, negativa quando

ϕ( v)  < 0 para todo  v =  0 em  E e  indefinida  quando existem  u, v ∈ E

tais que ϕ( u ) > 0 e  ϕ( v) < 0.

 A forma quadratica   ϕ :   E

 →  R   e nao-negativa, positiva, nao-

positiva, negativa ou indefinida, respectivamente, conforme o ope-

rador auto-adjunto   B :  E →   E, tal que   ϕ( v) =  v, Bv, tenha umadessas propriedades, ou seja, conforme os autovalores  λ1, . . . , λm  se-

 jam todos ≥   0, todos   > 0, todos ≤   0, todos   < 0   ou   λ1   < 0 < λm 

respectivamente.

Se λ1 ≤ · · · ≤ λm  sao os autovalores da forma quadratica ϕ entao,

para todo vetor unitario  u  ∈  E  tem-se  λ1 ≤  ϕ( u ) ≤  λm . Com efeito,

relativamente  a base U  do Teorema 18.3, se u  =  Σxi u i entao Σx2i   = 1,

portanto:

λ1  =

i

λ1x2i ≤

i

λix2i   = ϕ( u ) ≤

i

λm x2i   = λm .

 Alem disso,   ϕ( u 1) =   λ1   e   ϕ( u m ) =   λm . Portanto, o menor au-

tovalor  λ1   e o maior autovalor  λm   sao tambem o valor mınimo e o

valor maximo assumidos pela forma quadratica  ϕ  entre os vetores

unitarios de E.

Em Analise, quando se estudam os pontos crıticos de uma funcao

diferenciavel, um papel crucial e desempenhado por uma forma qua-dratica, chamada forma Hessiana. Os pontos crıticos sao classifica-

dos de acordo com o numero de direcoes independentes ao longo das

Page 242: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 242/358

Secao 18 Formas Quadraticas   231

quais a funcao tem um maximo relativo e esse numero coincide com

o ındice da forma Hessiana, como definiremos a seguir.

O ´ ındice de uma forma quadratica ϕ :  E→ R e a maior dimensaode um subespaco vetorial de  E  restrita ao qual a forma  e negativa.

Quando ϕ ≥ 0, diremos que o ındice de ϕ  e zero.

Portanto, o   ındice da forma quadratica   ϕ :   E →   R   e igual ao

numero  i =  0  quando: 1) Existe um subespaco vetorial F ⊂   E, com

dim  F   =   i, tal que  ϕ( v)   < 0  para todo vetor nao-nulo  v ∈   F; 2) Se

G ⊂  E  e um subespaco vetorial de dimensao maior do que  i, existe

algum vetor nao-nulo  w ∈ G, tal que ϕ( w) ≥ 0.

Se dim  E   =   m  entao toda forma quadratica negativa  ϕ :  E → R

tem ındice m . Assim definido, o  ındice de uma forma quadratica  e uma nocao

intrınseca, independente de escolhas ou construcoes arbitrarias.

Outro invariante numerico associado a uma forma quadratica

ϕ :  E → R  e o seu  posto. Seja  b :  E × E → R  a (unica) forma bilinear

simetrica tal que  ϕ( v) =   b( v, v)   para todo  v ∈   E. Escolhendo uma

base V   =   { v1, . . . , vm } ⊂   E   e pondo   bij   =   b( vi, v j),   i, j   =   1 , . . . , m  ,

sabemos que, para todo vetor

 v =

xi vi,   tem-se   ϕ( v) =

i,j

bijxix j.

Por definicao, o posto de  ϕ  e o posto da matriz b  = [bij ] ∈ M(m × m ).

Para provar que o posto de   ϕ, definido desta maneira, nao de-

pende da base escolhida, observemos que se tomarmos outra base

V ′   =   { v′1, . . . , v′m } ⊂  E  a forma  ϕ  sera representada pela matriz  b′   =

pT bp, onde   p ∈   M(m  × m )  e a matriz de passagem de V   para V ′.Como p  e  pT  sao invertıveis, e claro que b  e  b′  = pT bp tem o mesmoposto.

Em particular, se existir uma base V  =  { v1, . . . , vm } ⊂ E  tal que

ϕ( v) = λ1x21 + · · · + λrx2

r   (com λ1 = 0, . . . , λr = 0)

para todo  v   =   Σxi vi, entao a matriz de  ϕ   na base V   tem  λ1, . . . , λr

na diagonal e os demais elementos iguais a zero, logo o posto de  ϕ,

igual ao posto desta matriz,  e r.

Se   E   tem um produto interno e   ϕ( v) =    v, Bv   entao o postoda forma quadratica   ϕ   e igual ao posto do operador auto-adjunto

B :  E→ E.

Page 243: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 243/358

232   Formas Quadraticas Secao 18

Teorema 18.4.  (Lei da inercia, de Sylvester.)  Se existir uma base

V  = { v1, . . . , vm } ⊂ E  tal que, para todo v  =  Σx j v j ∈ E  se tem

ϕ( v) = −x21 − · · · − x2

i  + x2i+1 + · · · + x2

r

 ent ˜ ao a forma quadr´ atica ϕ  tem ´ ındice i  e posto r.

Demonstrac ˜ ao:   Ja vimos acima que o posto de  ϕ  e  r. Quanto ao

ındice, seja  F ⊂ E  um subespaco vetorial, restrito ao qual  ϕ  e nega-

tiva. Mostremos que dim  F ≤ i. Com efeito, se o vetor nao-nulo

 v =

m  j=1

x j v j

pertencer a F  entao

−x21 − · · · − x2

i  + x2i+1 + · · · + x2

r  < 0,

logo

x21 + · · · + x2

i   > 0

e daı (x1, . . . , xi) = 0. Isto mostra que a transformacao linear A :  F→R

i, definida por

Av =  A

 j=1

x j v j

 = (x1, . . . , xi),

e injetiva, portanto dim  F ≤   i. Para finalizar, observamos que o

subespaco gerado por  v1, . . . , vi  tem dimensao i  e, restrita a ele,

ϕ( v) = −x21 − · · · − x2

i

e negativa, Logo i  e a maior dimensao de um subespaco de E, restrita

ao qual ϕ  e negativa.

Usualmente, a Lei da Inercia de Sylvester e enunciada sob a se-

guinte forma equivalente: seja qual for a base V   =   { v1, . . . , vm } ⊂  E

tal que

ϕ( v) = −x21 − · · · − x2

i  + x2i+1 + · · · + x2

r   (*)

para v  =  Σx j v j, os numeros i  e  r  sao os mesmos.

Page 244: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 244/358

Secao 18 Formas Quadraticas   233

 Apresentaremos a seguir o  m´  etodo de Lagrange (de completar o

quadrado) para obter uma base no espaco vetorial E, relativamente

a qual uma dada forma quadratica   ϕ :  E →   R  tenha uma matrizdiagonal cujos elementos nao-nulos sao iguais a  1  ou  −1. Noutras

palavras, nessa base, ϕ  tem uma expressao do tipo (*) acima.

Comecemos com uma base qualquer U   =   { u 1, . . . , u  m } ⊂   E, na

qual se tem

ϕ( v) =

i,j

bijxix j,   (**)

para  v  =  x1 u 1 + · · · + xm  u m . Se  a  = [aij ] ∈ M(m × m )  e a matriz de

passagem da base U  para a base V  = { v1, . . . , vm }, a nova expressao

ϕ( v) =

i,j

cij yi y j,

para  v   =   y1 v1  + · · ·  +  ym  vm , se obtem simplesmente efetuando em

(**) a substituicao, ou mudanca de variaveis,

xi  =

aik  yk , x j  =

a jk  yk .

De agora em diante, mencionaremos apenas cada mudanca de

variaveis, deixando implıcito que ela corresponde  a passagem de

uma base para outra pois, em cada caso, a matriz   a   = [aij ]   [ou o

que e o mesmo, o operador ( y1, . . . , ym ) → (x1, . . . , xm )]  e invertıvel.

 A partir da expressao

ϕ( v) =

i,j

bijxix j ,

faremos, se necessario, uma mudanca de variaveis para assegurar

que algum elemento bii da diagonal seja diferente de zero. (Estamos

supondo que  ϕ  nao seja identicamente nula, do contrario nada ha-

veria a fazer.) Pois se todos os elementos da diagonal fossem iguais

a zero, escolherıamos um  brs =  0, com  r =  s  e farıamos a mudanca

de variavel  xr   =  yr + ys,  xs   =  yr − ys,  xi   =  yi  (se  i /∈  {r, s}). Entao a

parcela 2brsxrxs  da soma ϕ( v) se transformaria em 2brs y2r  − 2brs y

2s  e

agora, nas novas variaveis yi, a expressao de ϕ( v) contem ao menosdois termos nao nulos, crr y

2r  = 2brs y

2r  e css y

2s  = −2brs y

2s, os quais nao

se cancelam com nenhuma das outras parcelas.

Page 245: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 245/358

234   Formas Quadraticas Secao 18

 Voltemos  a expressao   ϕ( v) =   Σbijxix j, onde podemos agora su-

por que algum  bii =   0. Mudando, se necessario, a numeracao das

variaveis (o que equivale a mudar a ordem dos vetores da base), po-demos admitir que b11 = 0. Entao escrevemos

ϕ( v) = b11

x2

1 + 2x1 · j≥2

c jx j

+ ψ( v′),

onde c j  = b1j/b11  e ψ( v′) depende apenas de

 v′  = j≥2

x j u  j,

ou seja,   ψ   e uma forma quadratica definida no subespaco   F ⊂   E,

de dimensao  m  −  1, gerado por  u 2, . . . , u  m . A expressao dentro dos

parenteses acima e do tipo a2 + 2ab, logo e igual a (a + b)2 − b2, onde

a =  x1   e   b =

 j≥2

c jx j.

 Assim, a mudanca de variaveis

z 1  = x1 + j≥2

c jx j, z 2  = x2, . . . , z  m  = xm 

ou, equivalentemente,

x1  = z 1 − j≥2

c jz  j, x2  = z 2, . . . , xm  = z m ,

mostra que a expressao dentro dos parenteses acima e igual a

z 21 −

 j≥2

c jz  j

2

,

portanto

ϕ( v) = b11z 21 − b11

 j≥2

c jz  j

2

+ ψ( v′)

Page 246: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 246/358

Secao 18 Formas Quadraticas   235

ou seja, ϕ( v) = b11z 21 +  ξ( v′) onde, outra vez, ξ  e uma forma quadra-

tica no subespaco F, de dimensao m − 1. Efetuando a nova mudanca

de variaveis z 1  =   y1 |b11|

, z  j  = y j   ( j ≥ 2),

obtemos  ϕ( v) = ± y21 + ξ( v′). Aplicando o mesmo metodo a  ξ  e pros-

seguindo analogamente, chegaremos no final a

ϕ( v) =

± y2i

ou, mais explicitamente:

ϕ( v) = − y21 − · · · − y2i  + y2i+1 + · · · + y2r ,

onde   i  e o   ındice e   r  o posto da forma quadratica   ϕ. Os numeros

 y j  sao as coordenadas do vetor  v  na base de  E  obtida apos a  ultima

mudanca de coordenadas.

Exemplo 18.2.  Seja ϕ :  R3 → R a forma quadratica dada por

ϕ(x,y,z ) = 2x2 + 2y2 − 2z 2 + 4xy − 4xz + 8yz.

Completando o quadrado, vemos que a soma das parcelas que con-

tem o fator x  se escreve como

2x2 + 4xy − 4xz  =  2[x2 + 2x( y − z )]

= 2[x2 + 2x( y − z ) + ( y − z )2 ] − 2( y − z )2

= 2(x + y − z )2 − 2( y − z )2.

 A mudanca de variaveis s  =  x + y − z  nos da entao

ϕ(x,y,z ) = 2s2 − 2( y − z )2 + 2y2 − 2z 2 + 8yz 

= 2s2 − 4z 2 + 12yz.

Novamente completamos o quadrado, agora na soma das parcelas

que contem z , e obtemos

− 4z 2 + 12yz  = − 4

z 2 − 2z ·  3

2 y

= − 4z 2 − 2z ·  3

2 y +

 9

 4 y2

+ 9y2

= − 4

z −

 3

2 y

2

+ 9y2.

Page 247: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 247/358

236   Formas Quadraticas Secao 18

 A mudanca de variaveis t  =  z −   32 y nos da portanto

ϕ(x,y,z ) = 2s

2

− 4t

2

+ 9y

2

.

Isto ja nos diz que a forma quadratica ϕ  tem posto 3 e ındice 1, logo

e indefinida.

Se quisermos, podemos fazer a mudanca de variaveis

s =  y1√ 

2, t =

 y2

2 , y =

 y3

3

e teremos

ϕ(x,y,z ) = y21 −  y2

2 +  y23.

Evidentemente, nao ha dificuldade em obter a expressao das va-

riaveis y1, y2  e y3  em funcao de x, y, z  e vice-versa. Mas, para efeito

de conhecer o ındice e o posto de ϕ, isto e desnecessario.

Quadricas

O estudo das formas quadraticas tem uma aplicacao interessante

a Geometria Analıtica   n-dimensional, que apresentaremos breve-mente aqui.

Um subconjunto Σ ⊂ Rn chama-se uma qu ´ adrica central quando

existe uma forma quadratica  ϕ :  Rn →   R   tal que  Σ  e definido pela

equacao ϕ( v) = 1.

Se

ϕ( v) =

i,j

aij xix j

para   v   = (x1, . . . , xn), isto significa que   Σ   e o conjunto dos pontos(x1, . . . , xn) ∈ R

n tais que

ni,j=1

aij xix j  = 1.

Segue-se imediatamente do Teorema 18.3 que, dada uma quadri-

ca central  Σ

 ⊂ R

n, existe uma base ortonormal

 U   =   { u 1, . . . , u  n}  em

Rn, relativamente a qual a equacao de Σ  e

λ1 y21 + · · · + λn y2

n  = 1,

Page 248: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 248/358

Secao 18 Formas Quadraticas   237

onde λ1, . . . , λn sao os autovalores da matriz simetrica [aij ].

Noutras palavras, quando se exprime o vetor v =  y1 u 1 +· · ·+ yn u n

como combinacao linear dos elementos da base U , tem-se v ∈ Σ se, esomente se, suas coordenadas y1, . . . , yn satisfazem a equacaoλi y

2i   = 1.

 As retas que contem os vetores u i  da base U  chamam-se os  eixos

 principais da quadrica central Σ.

Quando  n  =  2,  Σ  chama-se uma  conica. Portanto, a conica defi-

nida em R2 pela equacao

ax2 + 2bxy + cy2 = 1

pode, numa nova base ortonormal de  R2, ser representada pela e-

quacao

λs2 + µt2 = 1,

onde λ, µ  sao os autovalores da matriz a b

b c.

Segundo os sinais desses autovalores, as seguintes possibilidadespodem ocorrer:

1o¯ ) Se λµ < 0 (isto e, ac < b2) tem-se uma hip´  erbole.

2o¯ ) Se λ > 0 e  µ > 0 (isto e, a > 0 e  ac > b2) tem-se uma elipse.

3o¯ ) Se  λ < 0  e  µ < 0   (isto  e,   a < 0  e   ac > b2) tem-se o conjunto

vazio.

4o¯ ) Se λµ  =  0  (isto e, ac  =  b2) tem-se um par de retas paralelas, ou

o conjunto vazio, conforme seja  a + c > 0 ou  a + c ≤ 0.

Evidentemente, quando λ  =  µ > 0 tem-se uma circunferencia.

E claro que, em cada caso concreto, dada a equacao ax2 + 2bxy +

cy2 = 1, uma aplicacao imediata do metodo de Lagrange (de comple-

tar o quadrado) permite escrever o primeiro membro sob a forma

b1 y21   +  b2 y22   e daı constatar, conforme os sinais de   b1   e   b2, se setrata de elipse, hiperbole ou um par de retas. Convem ter em conta,

porem, que o metodo de Lagrange, embora eficiente (principalmente

Page 249: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 249/358

238   Formas Quadraticas Secao 18

em dimensoes maiores do que 2, onde  e muito dif ıcil calcular os au-

tovalores), nao fornece bases ortonormais. Em particular, ele nao

permite distinguir uma elipse de uma circunferencia.Em dimensao 3, as superf ıcies quadricas centrais  Σ ⊂   R3 tem,

num sistema de coordenadas ortogonais conveniente, uma equacao

do tipo

λ1 y21 + λ2 y

22 + λ3 y

23  = 1.

 As possibilidades sao as seguintes:

1o¯ ) Se λ1  > 0, λ2  > 0 e  λ3  > 0,   Σ  e um elips´ oide.

2o) Se λ1  > 0, λ2  > 0 e  λ3  < 0,  Σ  e um hiperbol´ oide de revoluc ˜ ao.

3o¯ ) Se λ1  > 0, λ2  < 0 e  λ3  < 0,  Σ  e um hiperbol´ oide de duas folhas.

4o¯ ) Se λ1, λ2  e λ3  sao ≤ 0, Σ  e o conjunto vazio.

5o¯ ) Se  λ3   =   0,   Σ   =   C ×  R   =   {( v, t); v ∈   C, t ∈   R}, onde  C ⊂   R

2 e

definido pela equacao

λ1 y2

1

 + λ2 y2

2

 = 1.

Neste caso, Σ  e um cilindro de base  C.

Observe que, mudando a numeracao das coordenadas se neces-

sario, podemos sempre supor λ1  > 0.

Ha outro tipo mais geral de quadricas, alem das centrais. Sao

subconjuntos  Σ ⊂ Rn definidos por uma equacao do tipo

ni,j=1

aij xix j +

ni=1

bixi  = c.

 A escolha de uma base ortonormal conveniente em  Rn faz com

que esta equacao assuma a forma

ri=1

λi y2i  +

ni=1

b′i yi  = c,

onde r  e o posto da matriz [aij ] e  λ1 = 0, . . . , λr = 0.Procurando eliminar o termo linear   Σb′i yi  mediante escolha de

novas coordenadas, somos levados a efetuar uma translacao. (Ate

Page 250: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 250/358

Secao 18 Formas Quadraticas   239

agora nossas mudancas de coordenadas eram feitas por meio de

transformacoes lineares, logo preservavam a origem.) Introduzindo

as novas coordenadas

z i  = yi +  b′i2λi

(i =  1, . . . , r),

z r+1  = yr+1,

...

z n  = yn,

a equacao acima se torna

λ1z 21 + · · · + λrz 2r  + b′r+1z r+1 + · · · + b′nz n  = c′,

na qual conseguimos eliminar os  r  primeiros termos lineares.

Pode ocorrer que os coeficientes   b′ j   sejam todos iguais a zero.

Neste caso, a forma simplificada que buscamos para a equacao da

quadrica Σ  e:

λ1

z 21

 +· · ·

+ λrz 2

r = c

′.

Se r  =  n,  Σ  e simplesmente a figura que resulta de uma quadrica

central depois de uma translacao. Se r < n  entao as  ultimas  n −  r

coordenadas   z r+1, . . . , z  n   podem ser tomadas arbitrariamente, en-

quanto as   r   primeiras definem uma quadrica em  Rr, logo   Σ   e um

cilindro generalizado: produto cartesiano  Σ   =   Σ′ ×  Rn−r onde  Σ′   e

uma quadrica em Rr.

Se algum dos numeros b′ j (r + 1 ≤ j ≤ n) for =  0, introduziremos

novas coordenadas t1, . . . , tn  de tal modo que  t1  = z 1, . . . , tr  = z r  e

b′r+1z r+1 + · · · + b′nz n − c′  = dtr+1.

Primeiro fazemos uma translacao de modo a eliminar  c′. Para isso

escolhemos um ponto (z or+1, . . . , z  on) tal que

b′r+1z or+1 + · · · + b′nz on  = c′

e escrevemos

s1  = z 1, . . . , sr  = z r, sr+1  = z r+1 − z or+1, . . . , sn  = z n − z on.

Page 251: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 251/358

240   Formas Quadraticas Secao 18

Entao, nas coordenadas si, a equacao da quadrica Σ  se torna:

λ1s2

1

 +· · ·

+ λrs2

r

 + b′r+1

sr+1 +· · ·

+ b′n

sn  = 0.

No espaco Rn−r, a expressao

b′r+1sr+1 + · · · + b′nsn

e o produto interno b, w, onde

b = (b′r+1, . . . , b′n)   e   w = (sr+1, . . . , sn).

Escolhamos nesse espaco uma base ortonormal cujo primeiro ele-mento seja o vetor unitario  u   =   b/|b|. Sejam   (tr+1, . . . , tn)  as coor-

denadas do vetor  w  = (sr+1, . . . , sn) nesta base. Entao  tr+1  =  u, w,

logo b, w  =   |b|tr+1. Escrevendo  t1   =  s1, . . . , tr  =  sr, vemos que, nas

novas coordenadas ti  a equacao da quadrica Σ  assume a forma:

λ1t21 + · · · + λrt2

r  + dtr+1  = 0,

onde d  =  |b|.

Observemos que todas as mudancas de coordenadas foram fei-tas mediante translacoes e transformacoes lineares ortogonais (ou,

o que  e o mesmo, escolhas de bases ortonormais). Podemos entao

concluir que, dada uma quadrica:

Σ :

ni,j=1

aij xix j +

ni=1

bixi  = c   (*)

em R

n

, existe uma mudanca de coordenadas

xi  =

n j=1

m ijt j + k i   (i =  1, . . . , n)

tal que m  = [m ij ]  e uma matriz ortogonal e, efetuando essa transfor-

macao na equacao (*) de Σ, ela se torna

λ1t21 +

· · ·+ λrt2

r  + dtr+1  = 0,   (d

 = 0)

ou

λ1t21 + · · · + λrt2

r  = c′,

Page 252: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 252/358

Secao 18 Formas Quadraticas   241

onde  r  e o posto da matriz   [aij ]  e  λ1, . . . , λr   sao os seus autovalores

nao-nulos. No primeiro caso, supondo r  =  n −  1, a quadrica  Σ  pode

ser definida por tn  = α 1t21 + · · · + α n−1t2

n−1

(com α i  = −λi/d) e chama-se um  parabol´ oide.

Exercıcios

18.1. Determine a matriz de cada uma das formas bilineares abaixo,relativamente  a base especificada:

(a)   b :  R 4 × R 4 → R,  b( u, v) =  u, v, base  { v1, v2, v3, v 4} ⊂  R

 4, onde

 v1=(−2,0,3,1), v2=(1,2,1, −1), v3=(0,1,2, −1), v 4=(1,2,3,1).

(b)   b :  Rn × Rn →  R,  b( u, v) = Au,v,  A ∈ L(Rn), base canonica

de Rn.

(c)   b :  Rn×Rn → R, b( u, v) = Au, Bv, A, B ∈ L(Rn), base canonicade Rn.

(d)   b :  Rn ×Rn → R, b( u, v) =  u, a ·  v, b, a, b ∈ R

n, base canonica

de Rn.

18.2.   Seja  ϕ :  R3

→R  a forma quadratica dada por ϕ(x,y,z ) =  x2 +

 y2 − z 2 + 2xy − 3xz + yz . Qual e a matriz de ϕ  na base { u, v, w} ⊂ R3,

onde u  = (3,0,1), v  = (1, −1, 2), w  = (2,1,2) ?18.3.  Prove que o conjunto das formas quadraticas no espaco veto-

rial  E  e um subespaco vetorial  Q(E) ⊂ F (E;R). Se dim  E  =  n, prove

que dim  Q(E) = n(n + 1)/2.

18.4.  Assinale V(erdadeiro) ou F(also):

( ) O conjunto das formas quadraticas de ındice  i no espaco veto-

rial E  e um cone convexo em

 F (E;R).

( ) A matriz do operador B :  E → E  na base U   e igual  a matriz da

forma bilinear b( u, v) =  u, Bv na mesma base.

Page 253: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 253/358

242   Formas Quadraticas Secao 18

( ) As formas bilineares   b   e   b∗, que correspondem aos operado-

res   B   e  B∗  segundo o Teorema 18.2, definem a mesma forma

quadratica ϕ( v) = b( v, v) = b∗( v, v).

( ) O operador auto-adjunto B :  E→ E e a forma bilinear simetrica

b :  E × E →  R, que lhe corresponde conforme o Teorema 18.2,

tem a mesma matriz relativamente a qualquer base de  E.

18.5. A matriz de uma forma bilinear  b :  E×E na base U = { u 1, . . . , u  n}

⊂  E  e dada por  bij   =  b( u i, u  j). Supondo conhecida a forma quadra-

tica  ϕ :  E → R, como se pode obter a matriz de  ϕ na base U  a partirdos seus valores ϕ( v), v ∈ E ?

18.6.   Sejam   f, g :  E →   R   funcionais lineares. Prove que a forma

bilinear anti-simetrica   f  ∧  g :  E →   E, definida por   (f  ∧  g)( u, v) =

f( u )g( v) − f( v)g( u ),  e identicamente nula se, e somente se, um dos

funcionais dados e multiplo do outro.

18.7. Seja b :  E× E

→R uma forma bilinear anti-simetrica no espaco

vetorial  E, de dimensao finita. Prove que as seguintes afirmacoes

sobre b  sao equivalentes:

(1) Tem-se b  =  f ∧ g, onde f, g ∈ E∗.

(2) Existe uma base V   =   { v1, . . . , vn} ⊂   E   tal que  b( vi, v j) =   0  se

 {i, j} =  {1, 2}.

Conclua que toda forma bilinear em   R3 e do tipo   b   =   f  ∧  g.

E em R 4 ?

18.8.  Seja b :  R5 × R5 → R uma forma bilinear anti-simetrica. Prove

que existem numeros α , β  e uma base { v1, v2, v3, v 4, v5} ⊂  R5 tais que

b( v1, v2) = −b( v2, v1) = α , b( v3, v 4) = −b( v 4, v3) = β  e  b( vi, v j) = 0  nos

demais casos. Conclua que existem funcionais lineares

f1, f2, f3, f 4 :  R5

→R tais que b  =  f1 ∧ f2 + f3 ∧ f 4.

18.9.   Sejam  E,  F  espacos vetoriais de dimensao finita, com produto

interno. Estabeleca um isomorfismo natural entre B (E × F) e L(E; F).Determine a relacao entre as matrizes de uma forma bilinear e da

transformacao linear que lhe corresponde.

Page 254: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 254/358

Secao 18 Formas Quadraticas   243

18.10.   Dados os funcionais lineares  f, g :  E

→R, considere a forma

bilinear  f ⊗ g :  E × E

 →  R   (produto tensorial de  f  e  g) definida por

(f ⊗ g)( u, v) = f( u ) · g( v). Prove as seguintes afirmacoes:

(a)   f ⊗ g =  0 ⇒ f =  0  ou  g  =  0.

(b)   f ⊗ g =  g ⊗ f⇔ um dos funcionais f, g  e multiplo do outro.

(c) Se {f1 . . . , fn} ⊂ E∗  e uma base entao as formas bilineares fi ⊗ f j

constituem uma base de B (E × E).

(d) Nas condicoes do item (c), as formas fi

•f j  = fi

⊗f j + f j

⊗fi, com

i ≤ j, constituem uma base para o espaco das formas bilinearessimetricas.

(e) Com a notacao de (c), as formas  fi  ∧ f j   =  fi ⊗ f j − f j ⊗ fi, com

i < j, constituem uma base para o espaco das formas bilineares

anti-simetricas.

18.11. Dada a forma quadratica ϕ :  R2

→R, com ϕ(x, y) = 2x2 − y2 +

3xy, ache uma base ortonormal  { u, v} ⊂  R2

e numeros  λ,  µ  tais que,para todo vetor w  =  su + tv ∈ R

2 se tenha ϕ( w) = λs2 + µt2.

18.12. Dada a matriz simetrica

b =

 4 1

1 2

,

ache uma matriz ortogonal p tal que pT bp seja uma matriz diagonal.

 A partir daı obtenha uma base ortonormal { u, v}

⊂R

2 tal que a forma

quadratica ϕ :  R2 → R, com ϕ(x, y) = 4x2 + 2xy + 2y2 se escreva comoϕ( w) = λs2 + µt2 para todo vetor w  = su + tv.

18.13.   Dadas as formas quadraticas abaixo, use o metodo de La-

grange para exprimi-las como somas e diferencas de quadrados e, a

partir daı, determine o ındice e o posto de cada uma delas:

(a)   ϕ(x, y) = x2 + 9y2 + 6xy

(b)   ψ(x, y) = x2 + 8y2 + 6xy

(c)   ξ(x,y,z ) = x2 + 2xy + z 2 − 3xz + y2 − 2yz 

(d)   ζ(x,y,z ) = 8x2 + 36yz − 6y2 − 27z 2 − 24xy

Page 255: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 255/358

244   Formas Quadraticas Secao 18

18.14.   Dada a forma quadratica  ϕ :  R2

→  R, com  ϕ(x, y) =   ax2 +

bxy + cy2, escreva-a como

ϕ(x, y) = y2

a

x

 y

2

+ b

x

 y

+ c

= y2[at2 + bt + c ], t =  x/y,

e use o trinomio  at2 + bt  +  c  para obter condicoes sobre  a,  b,  c  que

caracterizam se  ϕ  e positiva, negativa, indefinida, nao-negativa ou

nao-positiva.

18.15.   Seja   A :  E →   F  uma transformacao linear invertıvel. Paratoda forma quadratica ψ :  F→ R, prove que ϕ  =  ψ ◦ A :  E→ R  e uma

forma quadratica em E, com o mesmo ındice e o mesmo posto que  ψ.

18.16.  Prove que todo operador linear invertıvel A :  Rn → Rn trans-

forma uma quadrica Σ ⊂ Rn noutra quadrica de mesmo tipo.

Page 256: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 256/358

19

Determinantes

O determinante surgiu inicialmente nas f´ ormulas que exprimem a

 soluc ˜ ao de um sistema determinado de  n  equac˜ oes lineares a  n   in-

c´ ognitas. Posteriormente, ele foi identificado como a ´ area de um pa-ralelogramo ou o volume de um paralelep´ ıpedo e depois, de forma

definitiva, como a func ˜ ao multilinear alternada da qual todas as ou-

tras se deduzem.

Tradicionalmente se tem o determinante de uma matriz quadra-

da, ou de uma lista de vetores, que s˜ ao as colunas (ou linhas) dessa

matriz. Em   ´  Algebra Linear, ´  e mais apropriado falar do determinante

de um operador linear. Seu interesse aqui decorre principalmente do

 fato de que um operador ´  e invert´ ıvel se, e somente se, seu determi-nante ´  e diferente de zero. A partir da´ ı, o determinante fornece um

 polinomio de grau n  cujas ra´ ızes reais s ˜ ao os autovalores de um ope-

rador num espaco vetorial n-dimensional (polinomio caracter´ ıstico),

 polinomio esse que estudaremos na sec ˜ ao seguinte.

 Faremos aqui uma breve apresentac ˜ ao do conceito de determi-

nante e de suas principais propriedades. Nosso ponto de partida s˜ ao

as func˜ oes multilineares, mais especificamente as alternadas.

Em toda esta secao, E representa um espaco vetorial de dimensao

n, no qual todas as bases que tomaremos serao ordenadas.

Page 257: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 257/358

246   Determinantes Secao 19

Uma forma r-linear no espaco vetorial  E  e uma funcao

f :  E

× · · · ×E→ R,

definida no produto cartesiano E × · · ·× E =  Er, que e linear em cada

uma das suas variaveis, isto e:

f( v1, . . . , vi +  v′i, . . . , vr) = f( v1, . . . , vi, . . . , vr) + f( v1, . . . , v′i, . . . , vr),

f( v1, . . . , α vi, . . . , vr) = αf( v1, . . . , vi, . . . , vr),

para v1, . . . , vi, v′i . . . , vr ∈ E  e  α ∈ R quaisquer.

Se   f   e   r-linear e um dos vetores   v1, . . . , vr   e igual a zero entao

f( v1, . . . , vr) = 0, pois

f(. . . , 0 , . . .) = f(. . . , 0 . 0 , . . .) = 0.f(. . . , 0 , . . .) = 0.

Teorema 19.1.   Seja U   =  { u 1, . . . , u  n} ⊂ E uma base. Para cada uma

das nr listas ordenadas J  = ( j1, . . . , jr) de inteiros compreendidos en-

tre 1 e n , fixemos um n ´ umero real aJ  = a j1 j2...jr . Existe uma, e somente

uma, forma r-linear f :  E×· · ·×E

→R tal que f( u  j1 , . . . , u   jr) = aJ para

todo J  = ( j1, . . . , jr).

Noutras palavras, uma forma   r-linear   f :   Er →   R   fica intei-

ramente determinada quando se conhecem seus   nr valores

f( u  j1 , . . . , u   jr) nas listas de elementos basicos, e esses valores podem

ser escolhidos arbitrariamente.

Demonstrac ˜ ao:   Para facilitar a escrita, tomemos   r   =   3. O caso

geral se trata igualmente. Suponhamos dado, para cada lista (i,j,k )

de numeros naturais compreendidos entre 1 e   n, um numero real

aijk . Definamos f: E × E × E→ R

pondo

f( u, v, w) =

ni,j,k =1

aijk xi y jz k ,

se

 u  =

xi u i, v =

 y j u  j   e   w =

z k  u k .

 Verifica-se facilmente que   f, assim definida,   e trilinear e que

f( u i, u  j, u k ) =   aijk . Alem disso, se   g :  E

 × E

 × E →   R   e trilinear e

g( u i, u  j, u k ) = aijk  para i, j, k  =  1, . . . , n  quaisquer, entao para

 u  =

xi u i, v =

 y j u  j   e   w =

z k  u k .

Page 258: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 258/358

Secao 19 Determinantes   247

arbitrarios, tem-se

g( u, v, w) = g( xi u i, y j u  j, z k  u k )

=

xi y jz k g( u i, u  j, u k )

=

aijk xi y jz k  = f( u, v, w),

logo g  =  f.

Corolario.   O espaco vetorial   Lr(E;R)   das formas   r-lineares

f :  E × · · · × E

→R tem dimens˜ ao nr.

Com efeito, uma vez fixada a base U ⊂   E, o Teorema 19.1 fazcorresponder, biunivocamente, a cada f ∈ Lr(E;R) os  nr numeros aJ.

Isto determina um isomorfismo entre Lr(E;R) e Rnr.

Uma forma r-linear f :  E×·· ·×E→ R chama-se alternada quando

f( v1, . . . , vr) =   0  sempre que a lista   ( v1, . . . , vr)  tiver repeticoes, ou

seja, quando

f( v1, . . . , vi−1, v , vi+1, . . . , v j−1, v , v j+1, . . . , vr) = 0

para quaisquer v, v1, . . . , vr ∈ E.

Teorema 19.2.   Uma forma  r-linear f :  E × · · · × E → R   ´  e alternada

 se, e somente se, ´  e anti-sim´  etrica, isto ´  e,

f( v1, . . . , vi, . . . , v j, . . . , vr) = −f( v1, . . . , v j, . . . , vi, . . . , vr)

 para quaisquer v1, . . . , vr ∈ E.

Demonstrac ˜ ao:  Por simplicidade, escrevamos

f( v1, . . . , u , . . . , v , . . . , vr) = ϕ( u, v).

Entao,  f  alternada implica  ϕ( u, u ) =  ϕ( v, v) =   ϕ( u  +  v, u  +  v) =  0,

logo

0 =  ϕ( u + v, u + v) = ϕ( u, u ) + ϕ( u, v) + ϕ( v, u ) + ϕ( v, v)

= ϕ( u, v) + ϕ( v, u ),

portanto   ϕ( u, v) = −ϕ( v, u ), de modo que   f   e anti-simetrica. Re-ciprocamente, se   f   e anti-simetrica entao   ϕ( v, v) = −ϕ( v, v)   logo

2ϕ( v, v) = 0, ϕ( v, v) = 0  e  f  e alternada.

Page 259: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 259/358

248   Determinantes Secao 19

Corolario. Seja f :  E×· · ·×E

→R r-linear alternada. Para toda per-

mutac ˜ ao σ  dos inteiros 1, 2, . . . , r , e toda lista de vetores v1, . . . , vr ∈ E

tem-se f( vσ(1), . . . , vσ(r)) = εσ f( v1, . . . , vr),

isto ´  e,

f( vσ(1), . . . , vσ(r)) = ±f( v1, . . . , vr),

onde o sinal ´  e   +   se  σ   ´  e uma permutac ˜ ao par e   −   se  σ   ´  e uma per-

mutac ˜ ao ´ ımpar.  (Vide Apendice.)

Com efeito, passa-se da sequencia ( v1, . . . , vr) para ( vσ(1), ..., vσ(r))

mediante k  transposicoes sucessivas, que correspondem a  k  mudan-

cas de sinal no valor de f. Como εσ  = (−1)k , o corolario segue-se.

 A notacao Ar(E)   indica o espaco vetorial das formas   r-lineares

alternadas  f :  E × · · · × E→ R.

Exemplo 19.1.   Dados os funcionais lineares   f1, . . . , fr :  E →   R, a

funcao f :  E × · · · × E→ R, definida por

f( v1, . . . , vr) = f1( v1) · f2( v2) · · · fr( vr)

e uma forma   r-linear, chamada o   produto tensorial   dos funcionais

lineares  f1, . . . , fr.

Exemplo 19.2.  Todo funcional linear f :  E→ R  e uma forma 1-linear

alternada, ja que nao  e possıvel violar a condicao de anti-simetria.

Portanto A1(E) = E∗.

Exemplo 19.3.  Qualquer aplicacao r-linear  f :  R× · · · × R → R  e do

tipo f(t1, . . . , tr) = a · t1 · t2 · · · tr, onde a  = f(1 , . . . , 1). (Vide Teorema

19.1.) Quando r > 1,   f  so pode ser alternada quando  a   =   0. Logo

Ar(R) = {0} se  r > 1.

Exemplo 19.4.  A forma f :  R2 ×R2 → R, definida por f( u, v) = x1 y2 −

x2 y1   quando   u   = (x1, x2)   e   v   = ( y1, y2),   e bilinear alternada. Se

g :  R2 ×  R2 →   R  e qualquer outra forma bilinear alternada em  R2

entao, pondo c  =  g(e1, e2), vem:

g( u, v) = g(x1e1 + x2e2, y1e1 +  y2e2)

= x1 y1g(e1, e1) + x1 y2g(e1, e2)

+ x2 y1g(e2, e1) + x2 y2g(e2, e2)

= (x1 y2 − x2 y1)g(e1, e2)

= c · (x1 y2 − x2 y1) = c · f( u, v)

Page 260: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 260/358

Secao 19 Determinantes   249

pois   g(e1, e1) =   g(e2, e2) =   0   e   g(e2, e1) = −g(e1, e2). Isto mos-

tra que toda forma bilinear alternada   g   e um multiplo de   f, logo

dim A2(R

2

)=1.Teorema 19.3.   Seja   f :  E × · · · × E →   R  r-linear alternada. Se os

vetores  v1, . . . , vr  forem L.D. ent ˜ ao f( v1, . . . , vr) = 0.

Demonstrac ˜ ao:   Isto   e claro se   v1   =   0. Caso contrario, um dos

vetores, digamos vi,  e combinacao linear dos anteriores:

 vi  = j<i

α  j v j.

Entao

f( v1, . . . , vr) = f( v1, . . . , j<i

α  j v j, . . . , vr)

= j<i

α  j f( v1, . . . , v j, . . . , v j, . . . , vr) = 0

pois f  e alternada.

Corolario 1.   Se existe uma forma   r-linear alternada   f :  E × · · · ×E →   R   tal que   f( v1, . . . , vr) =   0   ent˜ ao os vetores   v1, . . . , vr ∈   E   s ˜ ao

linearmente independentes.

Corolario 2.  Se r > dim  E ent˜ ao Ar(E) =  {0}.

Com efeito, sendo  r >   dim  E, quaisquer  r   vetores  v1, . . . , vr   sao

linearmente dependentes, logo   f( v1, . . . , vr) =   0  para todo   f ∈ Ar   e

todos v1, . . . , vr ∈ E.

 A partir de agora, concentraremos nosso interesse nas formasn-lineares alternadas,  f ∈ An(E), onde  n  =  dim  E. O resultado fun-

damental  e o teorema seguinte e, principalmente, seu Corolario 1.

Teorema 19.4.   Seja U   =  { u 1, . . . , u  n} uma base de E. Dado arbitra-

riamente um n´ umero real  a , existe uma ´ unica forma  n-linear alter-

nada f :  E × · · · × E→ R tal que f( u 1, . . . , u  n) = a.

Demonstrac ˜ ao:  Suponhamos inicialmente que exista f ∈ An(E) tal

que f( u 1, . . . , u  n) = a. Se g

 ∈ An(E) for tal que g( u 1, . . . , u  n) tambem

e igual a a, entao para toda lista de vetores  u i1 , . . . , u  in ∈ U   tem-se:

g( u i1 , . . . , u  in) = 0  =  f( u i1 , . . . , u  in),

Page 261: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 261/358

250   Determinantes Secao 19

se houve repeticoes na lista;

g( u i1 , . . . , u  in) = g( u σ(1), . . . , u  σ(n))= εσg( u 1, . . . , u  n)

= εσa

= εσ f( u 1, . . . , u  n)

= f( u i1 , . . . , u  in)

se   (i1, . . . , in) = (σ(1), . . . , σ(n))   for uma permutacao dos inteiros

(1 , . . . , n), isto  e, se nao houver repeticoes na lista. Segue-se entao

do Teorema 19.1 que  f   =   g. Portanto a forma n-linear alternada  ffica determinada por seu valor  f( u 1, . . . , u  n).

Isto nos indica como obter uma forma   n-linear alternada

f :  E × · · · ×  E →   R   tal que   f( u 1, . . . , u  n) =   a. Para toda lista or-

denada   (i1, . . . , in)  de inteiros compreendidos entre 1 e  n, poremos

f( u i1 , . . . , u  in) =   0   se houver repeticoes na lista,   f( u i1 , . . . , u  in) =

a   se   (i1, . . . , in)   for uma permutacao par dos numeros  1, 2, . . . , n   e

f( u i1 , . . . , u  in) = −a  se a lista   i1, . . . , in  for uma permutacao  ımpar

dos numeros  1, 2, . . . , n. Pelo Teorema 19.1, ha uma  unica forma  n-linear f :  E×· · ·×E→ R com estas propriedades. Resta provar que f  e

alternada. Com esse objetivo, tomamos um vetor v =  Σxi u i qualquer.

Entao:

f(∗ v ∗ v∗) =

ni,j=1

xix j f(∗ u i ∗ u  j∗)

=i

xixif(

∗ u i

∗ u i

∗) +i<j

xix jf(

∗ u i

∗ u  j

∗)

+i>j

xix jf(∗ u i ∗ u  j∗)

(1)=  0 +

i<j

xix jf(∗ u i ∗ u  j∗) −i>j

xix j f(∗ u  j ∗ u i∗)

(2)=

i<j

xix jf(∗ u i ∗ u  j∗) −

i<j

x jxif(∗ u i ∗ u  j∗)

(3)=i<j

xix jf(∗ u i ∗ u  j∗) −i<j

xix jf(∗ u i ∗ u  j∗) = 0.

Page 262: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 262/358

Secao 19 Determinantes   251

 Acima, os asteriscos estao em lugar de n − 2  vetores que perma-

necem fixos durante a argumentacao. A igualdade (1) usa o fato de

que f(∗ u i ∗ u  j∗)  e uma funcao (n − 2)-linear desses vetores, que satis-faz a condicao f(∗ u i ∗ u  j∗) = −f(∗ u  j ∗ u i∗) quando esses n − 2 vetores

pertencem  a base U  logo, pelo Teorema 19.1, esta igualdade vale em

geral. Segue-se que f(∗ u i ∗ u i∗) = 0. Na igualdade (2) foram trocados

os nomes dos  ındices mudos   i,   j. Finalmente, a igualdade (3) usa

apenas que xix j  = x jxi.

Corolario 1.  Se dim  E =  n  ent˜ ao dim An(E) = 1.

Com efeito, fixada a base

 U   =   { u 1, . . . , u  n}

 ⊂ E, existe  f

 ∈ An(E)

tal que f( u 1,...,u n)=1. Entao, para toda g∈An(E), se  g( u 1,...,u n) = atem-se tambem (af)( u 1, . . . , u  n) = a, logo g  =  af. Portanto, {f}  e uma

base de An(E).

Corolario 2.   Se  { u 1, . . . , u  n} ⊂  E   ´  e uma base e  0 =  f ∈ An(E)  ent˜ ao

f( u 1, . . . , u  n) = 0.

Com efeito, pelo Teorema 19.4 existe   fo   ∈ An(E)   tal que

fo( u 1, . . . , u  n) =   1. Pelo Corolario 1,   f   =   afo, com   a  =   0. Logo

f( u 1, . . . , u  n) = afo( u 1, . . . , u  n) = a = 0.

Toda transformacao linear  A :  E →   F   induz uma transformacao

linear  A# : An(F) → An(E), a qual faz corresponder a cada forma  n-

linear alternada f :  F×· · ·×F→ R a nova forma A#f :  E×· · ·×E→ R,

definida por

(A#f)( v1, . . . , vn) = f(Av1, . . . , A vn),

onde v1, . . . , vn ∈ E.  E f acil verificar que realmente A#f ∈ An(E), que

(BA

)# = A

#

B

#

e  I

# = I. Se  A  for um isomorfismo,  A

#

tambem sera,com (A#)−1 = (A−1)#.

Seja agora A :  E→ E um operador linear.

Como dim An(E) =  1, o operador linear  A# : An(E) → An(E) con-

siste na multiplicacao por um numero real, que chamaremos o deter-

minante do operador  A :  E → E  e indicaremos com a notacao det  A.

 Assim, por definicao, A#f =  det  A · f, isto e,

f(Av1, . . . , A vn) = det  A

·f( v1, . . . , vn)

para toda  f :  E × · · · × E → R  n-linear alternada e quaisquer  v1, . . . ,

 vn ∈ E.

Page 263: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 263/358

252   Determinantes Secao 19

Isto define o determinante de um operador de modo intrınseco,

sem recurso a bases ou matrizes. A seguir mostraremos como obter,

a partir desta definicao, as formas classicas de apresentar o determi-nante. De imediato, veremos como  e f acil provar duas propriedades

cruciais do determinante.

Teorema 19.5.   Se   A, B :   E →   E   s ˜ ao operadores lineares ent ˜ ao

det(BA) = det  B · det  A.

Demonstrac ˜ ao:   Sejam  { v1, . . . , vn} ⊂  E  uma base e  0 =   f ∈ An(E),

logo f( v1, . . . , vn) = 0. Entao

det(BA).f( v1, . . . , vn) = f(BAv1, . . . , B A vn)

= det  B.f(Av1, . . . , A vn)

= det  B. det  A.f( v1, . . . , vn),

portanto det(BA) = det  B · det  A.

Corolario. Se A :  E

→E  ´  e um operador n ˜ ao-negativo ent˜ ao det  A≥0.

Com efeito, existe  B :  E→E tal que A=B2, logo det  A=(det  B)2

≥0.

O teorema abaixo mostra que det  A > 0 quando A  e positivo.

Teorema 19.6.  O operador linear A :  E→ E  ´  e invert´ ıvel se, e somente

 se, det  A = 0. No caso afirmativo, tem-se  det(A−1) = (det  A)−1.

Demonstrac  ao:  Se existe A−1, entao de AA−1 = I  resulta

det  A. det(A−1) = det(AA−1) = det  I =  1,

logo det  A =  0  e det(A−1) = (det  A)−1. Reciprocamente, se det  A =0   entao, tomando uma base   { v1, . . . , vn} ⊂   E  e uma forma   n-linear

alternada nao-nula f :  E × · · · × E→ R temos

f(Av1, . . . , A vn) = det  A.f( v1, . . . , vn) = 0,

logo, pelo Corolario 1 do Teorema 19.3, os vetores  Av1, . . . , A vn cons-

tituem uma base de E. Assim, A  e invertıvel.

Corolario.  O sistema de equac˜ oes lineares Ax = b , com A ∈ L(Rn) ,

 possui uma ´ unica soluc ˜ ao se, e somente se,  det  A = 0.

Page 264: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 264/358

Page 265: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 265/358

Page 266: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 266/358

Secao 19 Determinantes   255

Com efeito, se   a   = [ v1, . . . , vn ], a igualdade   ax   =   b   significa que

b =  x1 v1 + · · · + xn vn. Assim, para cada i  de 1 ate n, tem-se

det  a[i; b ] = det[ v1, . . . , b , . . . , vn ]

=

nk =1

xk det[ v1, . . . , vk , . . . , vn ]

= xi · det[ v1, . . . , vn ]

= xi · det  a.

pois, quando   k 

 =   i, a matriz   [ v1, . . . , vk , . . . , vn ], com  vk   na   i-esima

coluna, tem duas colunas iguais a  vk , logo seu determinante  e zero.Segue-se entao que xi  = det  a[i; b ]/ det  a.

Se a  e a′  sao matrizes do mesmo operador  A  em relacao a bases

diferentes entao a′  = p−1ap, onde p  e a matriz de passagem de uma

base para a outra. Portanto

det  a′  = (det  p)−1 · det  a · det  p =  det  a.

O teorema seguinte completa esta observacao, mostrando que o

determinante de todas essas matrizes e igual a det  A.

Teorema 19.7.  O determinante do operador linear A :  E→ E  ´  e igual

ao determinante de uma matriz de A  numa base qualquer de E.

Demonstrac ˜ ao:   Seja   a   = [aij ] ∈   M(n × n)   a matriz de   A   numa

base U ⊂   E. Por definicao, det  a   =   det  Ao, onde  Ao :  Rn →   Rn e o

operador cuja matriz na base canonica de  Rn e  a. Seja ϕ :  E

→R

n

o isomorfismo que transforma U  na base canonica de  Rn. Para cada

 u  j ∈ U , tem-se Au  j  =i aij u i, logo

ϕ(Au  j) =

i

aijϕ( u i) =

i

aijei  = Aoe j  = Aoϕ( u  j).

Segue-se que ϕ · A =  Ao · ϕ, ou seja, Ao  = ϕ · A · ϕ−1. Portanto, para

cada f ∈ An(Rn) tem-se

det  a · f =  A#of = (ϕ#)−1A#ϕ#f = (ϕ#)−1 · det  A · ϕ#f =

= det  A · (ϕ#)−1 ϕ#f = det  A · f.

 Assim, det  a =  det  A.

Page 267: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 267/358

256   Determinantes Secao 19

Tradicionalmente, o determinante de uma matriz   a   = [aij ]  ∈M(n × n)  e definido como a soma de  n! parcelas do tipo

±a1j1a2j2 · · · anjn .

Essas parcelas sao produtos de n  fatores que pertencem a linhas

e colunas diferentes de  a. A ordem em que os fatores sao dispostos

e a ordem crescente dos  ındices  1, 2, . . . , n  das linhas. Os segundos

ındices (das colunas) exibem uma permutacao   σ   = ( j1, . . . , jn)   dos

inteiros  1, 2, . . . , n. O sinal que precede cada parcela  e   +   ou   −,

conforme a permutacao  σ  seja par ou ımpar respectivamente. Nou-

tras palavras, a definicao classica do determinante e

det  a =

σ

εσ · a1σ(1) · a2σ(2) · . . . · anσ(n),

o somatorio sendo estendido a todas as permutacoes  σ  dos inteiros

1 , 2 , . . . , n, com εσ  = 1  se  σ  e par e εσ  = −1 se  σ  e ımpar.

Para obter esta expressao, consideremos mais uma vez a forma

fo ∈ An(Rn)   tal que   fo(e1, . . . , en) =   1, logo   fo(eσ(1), . . . , eσ(n)) =   εσ

para toda permutacao σ  dos inteiros 1, 2, . . . , n.

Dada a matriz a  = [aij ] = [ v1, . . . , vn ]

 ∈ M(n

×n), temos

 v1  =

ni1=1

ai11ei1 ,

 v2  =

ni2=1

ai22ei2 ,

...

 vn  =

nin=1

ainnein ,

logo

det  a = fo( v1, . . . , vn)

= fo

n

i1=1

ai11ei1 ,

ni2=1

ai22ei2 , . . . ,

nin=1

ainnein

=

ni1,...,in=1

ai11ai22 · . . . · ainn · fo(ei1 , ei2 , . . . , ein).

Page 268: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 268/358

Secao 19 Determinantes   257

Neste  ultimo somatorio, sao nulas as parcelas em que ha repeti-

coes entre os ındices i1, i2, . . . , in, restando apenas aquelas em que

(i1, i2, . . . , in) = (ρ(1), ρ(2), . . . , ρ(n))

e uma permutacao dos inteiros 1, 2, . . . , n. Neste caso,

ai11 · ai22 · . . . · ainn  = a1σ(1) · a2σ(2) · . . . · anσ(n),

onde σ  =  ρ−1 e a parcela correspondente  e igual a

a1σ(1) · a2σ(2) · . . . · anσ(n)f0(

eρ(1), . . . , eρ(n))

.

Por conseguinte, levando em conta que εσ  = ερ, tem-se:

det  a =

σ

εσa1σ(1) · a2σ(2) · . . . · anσ(n) ,   (*)

o somatorio sendo estendido a todas as permutacoes   σ   dos intei-

ros 1, 2, . . . , n.

 Voltando  `a express

˜ao anterior (*), podemos escrever

det  a =

ρ

ερaρ(1)1 · aρ(2)2 . . . aρ(n)n .

Esta igualdade mostra que o determinante da matriz  a  e igual

ao determinante da sua transposta  aT .

Se A :  E

→E  e um operador num espaco vetorial munido de pro-

duto interno e a  e sua matriz numa base ortonormal entao

det  A =  det  a =  det  aT  = det  A∗.

Resulta da igualdade det  a   =   det  aT  que o determinante   e

uma funcao  n-linear alternada das  linhas  da matriz  a ∈ M(n × n).

(A  unica tal que det  In   =   1.) Como no caso de colunas, uma qual-

quer funcao  n-linear alternada  f  das linhas da matriz a  e da forma

f(a) = c · det  a, onde c  =  f(In) = f(e1, . . . , en).

Outra consequencia da igualdade det  A  =  det  A∗  e que o deter-

minante de um operador ortogonal  A  e igual a ±1, pois

(det  A)2 = det  A∗ · det  A = det(A∗A) = det  I =  1.

Page 269: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 269/358

258   Determinantes Secao 19

O teorema seguinte utiliza, em sua demonstracao, a caracteriza-

cao do determinante de uma matriz como funcao multilinear alter-

nada das linhas ou das colunas dessa matriz.Teorema 19.8.  Se b ∈ M(r×r) , c ∈ M(r× (n − r)) , 0 ∈ M((n − r)×r)

 e d ∈ M((n − r) × (n − r)) ent˜ ao o determinante da matriz

a =

b c

0 d

  ∈   M(n × n)

´  e igual a det  b · det  d.

Demonstrac ˜ ao: Para cada

 c fixa,

f(b, d) = det

b c

0 d

e uma funcao   r-linear alternada das colunas de   b   e   (n − r)-linear

alternada das linhas de d, logo

det b c

0 d   =   det  b · f(Ir, d)

= det  b · det  d · f(Ir, In−r)

= det  b · det  d,

pois

f(Ir, In−r) = det

Ir   c

0 In−r

 =  1,

 ja que o determinante de uma matriz triangular  e o produto dos

elementos da sua diagonal.

O Teorema 19.8 implica imediatamente uma sua versao mais ge-

ral, onde se tem uma matriz triangular por blocos, por exemplo, do

tipo

a =

b c d

e f 

  .

 A ı, b, e, g sao matrizes quadradas (de ordens possivelmente diferen-

tes) e b, c, d  tem o mesmo numero de linhas, assim como e, f . Alemdisso,  d,  f ,  g  tem o mesmo numero de colunas, assim como  c,  e. Os

lugares em branco sao ocupados por zeros.

Page 270: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 270/358

Secao 19 Determinantes   259

Nestas condicoes, det  a =  det  b · det  e · det  g .

Dada   a   = [aij ]  ∈   M(n ×  n), indicaremos com a notacao   Mij

a matriz de ordem   (n  −  1) ×  (n  −  1)   obtida mediante a omissaoda   i-esima linha e da   j-esima coluna da matriz  a. O   ij-´  esimo me-

nor  de  a  e, por definicao, o determinante det  Mij  o qual se chama

tambem o menor relativo ao elemento aij.

Resulta imediatamente do Teorema 19.8 que se  a   = [e1, v2, . . . ,

 vn ]  e uma matriz cuja primeira coluna  e   (1 , 0 , . . . , 0)  entao det  a   =

det  M11. Segue-se que se  a  = [ei, v2, . . . , vn ] entao

det  a = (−1)i−1 det  Mi1  = (−1)i+1 det  Mi1

pois este caso se reduz ao anterior mediante  i −  1  transposicoes de

linhas. Portanto, dada a  = [aij ] = [ v1, . . . , vn ], com

 v1  =

i

ai1ei,

tem-se

det  a =

i

ai1  det[ei, v2, . . . , vn ],

logodet  a =

i

(−1)i+1 ai1  det  Mi1 .

 A f ormula acima, chamada o desenvolvimento de det  a  segundo

a primeira coluna, reduz o calculo do determinante de sua matriz

n × n ao de n  determinantes de matrizes (n − 1) × (n − 1).

Mais geralmente, podemos fixar um inteiro arbitrario   j, com

1 ≤   j ≤   n, e efetuar o desenvolvimento do determinante de  a   se-

gundo a j-esima coluna. Para isso, observamos que se

a = [ v1, . . . , v j−1, ei, v j+1, . . . , vn ]

e uma matriz cuja j-esima coluna e ei  entao det  a = (−1)i+ j det  Mij,

pois a pode ser transformada numa matriz cuja primeira coluna e e1

mediante i − 1 transposicoes de linha e j − 1 transposicoes de coluna,

o que provoca   i +  j  −  2  mudancas de sinal em seu determinante, e

isto e o mesmo que multiplica-lo por (−1)i+ j.

 Assim, dada a  = [ v1, . . . , vn ], com v j  =

i

aijei,

Page 271: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 271/358

260   Determinantes Secao 19

temos

det  a = i

aij  det[ v1, . . . , v j−1, ei, v j+1, . . . , vn ],

o que fornece:

det  a =

ni=1

(−1)i+ j aij  det  Mij .

Este  e o  desenvolvimento do determinante de   a  segundo a   j-´  esima

coluna.

Como o determinante de  a  e igual ao de sua transposta  aT , vale

uma f ormula analoga, que  e o   desenvolvimento segundo a   i-´  esimalinha:

det  a =

n j=1

(−1)i+ j aij  det  Mij .   (*)

Estas f ormulas sao  uteis nos calculos, principalmente quando se

escolhe uma linha ou uma coluna com diversos elementos iguais a

zero. Elas tambem podem ser usadas como ponto de partida para

uma definicao indutiva do determinante de uma matriz.Resulta da f ormula (*) que, para quaisquer  i, j =  1, . . . , n, temos

nk =1

(−1) j+k aik  det  M jk  = (det  a) · δij ,   (**)

ou seja, este somatorio,  e igual a det  a  quando  i   =   j  e igual a zero

quando   i

 =   j. Com efeito, o caso   i   =   j  e simplesmente a f ormula

(*) e, para  i =  j, o somatorio acima  e o desenvolvimento, segundo a j-esima linha, do determinante de uma matriz  a  na qual as linhas  i

e j  sao iguais, portanto seu determinante  e zero.

O primeiro membro da igualdade (**) lembra um produto de

matrizes. De fato, podemos introduzir uma matriz adj a, cha-

mada a  adjunta cl´ assica de  a, pondo, para  i, j  =  1, . . . , n,  (adj a)ij   =

(−1)i+ j det  M ji. Entao o primeiro membro da igualdade (**)  e o   ij-

esimo elemento do produto  a · adj a, enquanto o segundo membro  e

o  ij-esimo elemento da matriz (det  a).In. Portanto, a igualdade (**)significa que

a ·  adj a = (det  a) · In .

Page 272: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 272/358

Secao 19 Determinantes   261

Segue-se daı que se a matriz  a  e invertıvel (isto  e, se det  a =  0)

entao sua inversa se exprime como

a−1 =   1det  a

 ·  adj a.

Esta f ormula para  a−1 tambem pode ser obtida com auxılio da

Regra de Cramer. Com efeito, o problema de obter uma matriz a−1 =

[ w1, . . . , wn ] tal que aa−1 = In pode ser considerado como n  sistemas

de equacoes lineares a · w j  = e j  ( j = 1, . . . , n). Pela Regra de Cramer,

a solucao w j  = (x1j, . . . , xnj) de cada um desses sistemas  e dada por

xij  =  det  a[i; e j ]det  a

  = (−1)i+ j det  M ji ,

pois a[i; e j ] = [ v1, . . . , vi−1, e j, vi+1, . . . , vn ] se  a  = [ v1, . . . , vn ].

Uma submatriz da matriz  a ∈ M(m × n)  e uma matriz obtida a

partir de a  pela omissao de algumas de suas linhas e/ou colunas.

Mais precisamente, dois subconjuntos

R =  {i1  < · · · < ir} ⊂ {1 , 2 , . . . , m  }

e

S = { j1  < · · · < js} ⊂ {1 , 2 , . . . , n}

determinam a submatriz aRS  = [aiα jβ ] ∈ M(r × s) da matriz a, obtida

pela omissao das linhas de  a  cujos ındices nao pertencem a  R  e das

colunas cujos ındices nao estao em S.

Teorema 19.9.   O posto de uma matriz   a ∈   M(m  × n)   ´  e o maior

n ´ umero   r   tal que   a   possui uma submatriz   aRS   ∈   M(r ×  r) , com

det  aRS = 0.

Demonstrac ˜ ao:   Seja  r  o posto de  a  = [ v1, . . . , vn ]. Existe  S  =  { j1   <

· · ·   < jr} ⊂   {1 , 2 , . . . , n}  tal que   { v j1 , . . . , v jr}  e L.I., portanto a matriz

[ v j1 , . . . , v jr ] ∈ M(m × r) tem posto r. Como o posto segundo linhas  e

igual ao posto segundo colunas (Teorema 8.2), existe um subconjunto

R =  {i1  < · · · < ir} ⊂ {1 , 2 , . . . , m  } tal que as linhas de [ v j1 , . . . , v jr ] cujos

ındices pertencem a R  sao L.I. . Isto significa que a matriz quadrada

aRS ∈   M(r × r)   e invertıvel, logo det  aRS =   0. Mas  e claro que o

posto de uma submatriz de  a  e menor do que ou igual ao posto dea. Portanto, nenhuma submatriz  k  × k  de  a, com   k > r, pode ter

determinante = 0.

Page 273: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 273/358

262   Determinantes Secao 19

Na Secao 17 (vide Observacao no final de 17.G) foi provado que

uma matriz simetrica  e positiva se, e somente se, seus pivos sao

todos positivos. Usaremos agora determinantes para provar outrocriterio de positividade de uma matriz, o qual  e tradicional e ele-

gante porem em dimensoes mais altas e muito menos pratico do que

o teste dos pivos.

Para cada  k   =   1, . . . , n  o  menor principal  de ordem  k  da matriz

a  = [aij ] ∈  M(n × n)  e o determinante da submatriz principal  ak   =

[aij ], 1 ≤ i, j ≤ k .

Teorema 19.10.   A fim de que uma matriz sim´  etrica   a   = [aij ] ∈M(n × n)   seja positiva ´  e necess´ ario e suficiente que seus menores

 principais sejam todos positivos.

Demonstrac ˜ ao:  No inıcio de 17.G. viu-se que se  a  e positiva entao

suas submatrizes principais  ak   sao positivas, logo det  ak   > 0  para

k  =   1, . . . , n. Suponha, reciprocamente, que todos os menores prin-

cipais sejam positivos. Tomando a decomposicao  a   =   lu   (veja item

5o¯ em 17.F), resulta que ak  = lk uk , para k  =  1, . . . , n, lk  e uk  indicam

as submatrizes principais  k × k  de  l  e  u  respectivamente. Segue-se

do Exemplo 19.5 que det  lk  = 1, pois todos os elementos da diagonalde lk  sao iguais a 1. Logo det  ak  = det(lk uk ) = det  uk  = u 11 u 22 . . . u  kk 

(produto dos elementos da diagonal de uk ). Portanto u 11  = det  a1  >

0 e  u kk  = det ak / det  ak −1  > 0 para k  =  2, . . . , n. Assim todos os pivos

 u kk  da decomposicao  a  =  lu sao positivos, logo a matriz simetrica  a

e positiva.

 Ap ˆ endiceUma   permutac ˜ ao   dos inteiros  1, 2, . . . , n  e uma bijecao  σ :  Jn →   Jn,

onde Jn  =  {1 , 2 , . . . , n}. Um exemplo particular de permutacao, quan-

do  n > 1,  e dado pelas transposicoes. Uma transposic ˜ ao  τ :  Jn → Jn

e definida fixando-se dois elementos   i =   j   em   Jn, pondo   τ (i) =   j,

τ ( j) = i  e  τ (k ) = k  se  k /∈  {i, j}.

Se  σ, σ′ :  Jn

 →  Jn   sao permutacoes entao a funcao composta  σ ◦

σ′ :   Jn →   Jn   tambem  e uma permutacao, chamada o   produto   das

permutacoes σ  e  σ′  e indicada pela notacao σσ′. A inversa σ−1 :  Jn →Jn  de uma permutacao e ainda uma permutacao, caracterizada pelo

fato de que  σσ−1 =  σ−1σ  =  ιn  = permutacao identidade Jn → Jn. Se

Page 274: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 274/358

Secao 19 Determinantes   263

τ  e uma transposicao entao ττ  = ιn, ou seja, τ  =  τ −1.

` As vezes se representa uma permutacao   σ :   Jn →   Jn   pela lista

ordenada   (σ(1), . . . , σ(n))   dos valores que ela assume nos numeros1 , 2 , . . . , n.

O conjunto das permutacoes dos   n   numeros   1 , 2 , . . . , n   tem

n! = 1 · 2 . . . n elementos.

Toda permutacao σ :  Jn → Jn  se escreve (de varias maneiras dife-

rentes) como produto de transposicoes σ  =  τ 1 · τ 2 . . . τ  k .

Dada a permutacao   σ, o numero   k   de transposicoes tais que

σ   =   τ 1 ·

 τ 2 . . . τ  k   pode variar, porem nao a sua paridade. Noutras

palavras, se  σ  puder ser expressa como produto de um numero par

de transposicoes entao nao podera ser expressa como produto de um

numero ımpar de transposicoes. Ou ainda, se σ  =  τ 1 ·τ 2 . . . τ  k  onde as

τ i  sao transposicoes entao  (−1)k  e um numero que depende apenas

de σ. Este numero, igual a ±1,  e representado pela notacao εσ.

Quando   εσ   = +1, diz-se que   σ   e uma   permutac ˜ ao par. Se

εσ  = −1, diz-se que σ  e uma permutac ˜ ao ´ ımpar. Tem-se εσσ′  = εσ ·εσ′ ,

ou seja, o produto de permutacoes pares  e par, o produto de uma

permutacao par por uma permutacao ımpar  e ımpar e o produto deduas permutacoes ımpares e par.  E claro tambem que εσ  = εσ−1 .

Exercıcios

19.1.  Sejam E1, . . . , Er  espacos vetoriais de dimensoes n1, . . . , nr  res-pectivamente. Defina funcao  r-linear   f :  E1 × · · · × Er →   R  e prove

que o conjunto L(E1, . . . , Er;R)  dessas funcoes  e um espaco vetorial

de dimensao n1 · n2 · . . . · nr.

19.2. Sejam E um espaco vetorial de dimensao n e U   = { u 1, . . . , u  n} ⊂E uma base. Para cada sequencia crescente J  =  { j1  < j2  < · · · < jr} de

r inteiros de 1 ate n, seja escolhido um numero aJ. Prove que existe

uma (unica) forma   r-linear alternada   f :  E × · · · ×  E →   R   tal quef( u  j1 , . . . , u   jr) =  aJ  para toda sequencia  J  =   { j1   < · · ·  < jr}. Conclua

que o espaco vetorial Ar(E) tem dimensao igual a

nr

.

Page 275: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 275/358

264   Determinantes Secao 19

19.3.  Dados os funcionais lineares  f1, . . . , fr :  E

→R, defina a forma

r-linear alternada f = f1 ∧. . .∧fr :  E×·· ·×E

→R pondo f( v1, . . . , vr) =

det(fi( v j)). (“Produto exterior” dos funcionais f1, . . . , fr.) Prove quef1  ∧ . . . ∧  fr =  0  se, e somente se,  f1, . . . , fr  sao L.I. . Prove tambem

que se {f1, . . . , fn} ⊂ E∗  e uma base entao as formas fJ  = f j1 ∧ . . . ∧ f jr ,

para todo J  =  { j1  < · · · < jr} ⊂ {1 , 2 , . . . , n}, constituem uma base para

Ar(E).

19.4.  Chama-se gramiano dos vetores v1, v2, . . . , vk  ∈ Rn ao numero

 γ( v1, . . . , vk ) = det( vi, v j),

determinante da matriz de Gram  g ( v1, . . . , vk ). Prove:

(a)   γ( v1, . . . , vk ) > 0 se, e somente se, os vetores v1, . . . , vk  sao line-

armente independentes.

(b) Se   v1   e perpendicular a   v2, . . . , vk   entao   γ( v1, . . . , vk ) =   | v1|2 · γ( v2, . . . , vk ).

19.5.   Com a notacao do exercıcio anterior, sejam  w1  a projecao or-togonal do vetor   v1  sobre o subespaco gerado por   v2, . . . , vr   e   h 1   =

 v1  − w1, logo   h 1   e perpendicular aos   v j   com   2 ≤   j ≤   r. Prove que

 γ( v1, . . . , vr) = |h 1|2 γ( v2, . . . , vr).

19.6.   O   paralelep´ ıpedo   gerado pelos vetores linearmente indepen-

dentes v1, . . . , vr ∈ Rn e o conjunto P[ v1, . . . , vr ] das combinacoes line-

ares  t1 v1  + · · · + tr vr, onde  0 ≤  ti ≤  1. O  volume  (r-dimensional) do

paralelepıpedo  e definido por inducao. Se r  = 1, ele se reduz ao seg-

mento de reta [0, v1 ], cujo “volume” uni-dimensional e, por definicao,

| v1|. Supondo definido o volume de um paralelepıpedo de dimensao

r − 1, poe-se

vol   P[ v1, . . . , vr ] = |h 1| · vol P[ v2, . . . , vr ],

onde   |h 1|  e a altura do paralelepıpedo, isto  e,   h 1   =   v1  − w1   e  w1   e

a projecao ortogonal de   v1  sobre o subespaco gerado por   v2, . . . , vr.

Prove que

vol P[ v1, . . . , vr ] = 

 γ( v1, . . . , vr) =

 det( vi, v j).

Page 276: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 276/358

Secao 19 Determinantes   265

19.7.  Seja a  a matriz quadrada invertıvel cujas colunas sao os veto-

res  v1, . . . , vn ∈  Rn. Prove que  γ( v1, . . . , vn) = (det  a)2 e conclua que

o paralelepıpedo gerado pelos vetores  v1, . . . , vn  tem volume igual a| det  a|.

19.8.   Seja   A :  Rn →   Rn um operador linear invertıvel. Para todo

paralelepıpedo  n-dimensional  X ⊂  Rn, prove que a imagem  A(X)  e

um paralelepıpedo tal que vol A(X) =  | det  A| · vol X.

19.9.  Calcule o determinante da matriz

0 0 0 a14

0 0 a23   a24

0 a32   a33   a34

a 41   a 42   a 43   a 44

e generalize o resultado para uma matriz   [aij ] ∈  M(n × n)  na qual

aij  = 0  quando i + j ≤ n.

19.10.  Se a matriz triangular  b  resulta de  a  pelo processo gaussi-

ano de eliminacao, prove que det  b = (−1)t det  a, onde t  e o numero

de transposicoes de linhas feitas durante o escalonamento. (Esca-lonamento  e o modo mais eficaz de calcular o determinante de uma

matriz n × n quando n ≥ 4.)

19.11.  Escalonando a matriz de Vandermonde

v =

1 1 1 . . . 1

x1   x2   x3   . . . xn

x21   x2

2   x23   . . . x2

n

...   ...   ...   ...   ...xn−1

1   xn−12   xn−1

3   . . . xn−1n

mostre que seu determinante e igual a

Πi>j

(xi − x j),

logo v  e invertıvel se, e somente se, os numeros x1, x2, . . . , xn sao dois

a dois distintos. Como aplicacao, mostre que, dados  n +  1  pares denumeros  (xo, yo), . . . , (xn, yn), onde  xo<x1< · · · <xn, existe um, e so-

mente um, polinomio p  de grau ≤n tal que p(xo)= yo, . . . , p(xn)= yn.

Page 277: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 277/358

266   Determinantes Secao 19

19.12.   Use eliminacao gaussiana (escalonamento) para calcular os

determinantes das seguintes matrizes:

1   −2 1   −1

1 5   −7 2

3 1   −5 3

2 3   −6 0

e

2 1 3 2

3 0 1   −2

1   −1 4 3

2 2   −1 1

19.13.   Proponha e resolva um sistema linear com o uso da regra

de Cramer e calcule pelo menos a inversa de uma matriz usando a

adjunta classica.

19.14. Calcule os determinantes das matrizes1 + a b c

a 1 + b c

a b 1 + c

  e

0 Im 

In   0

onde os zeros representam matrizes de dimensoes adequadas.

19.15.   Analise o seguinte argumento segundo o qual toda matriz

anti-simetrica tem determinante igual a zero: “Tem-se   aT  = −a,

logo det  a  = det  aT  = det(−a) = − det  a, logo det  a  = 0. ” Contraste

com

det

0   −1

1 0

.

19.16.   Defina o   produto vetorial   de   n   vetores   v1, . . . , vn   ∈   Rn+1

como o vetor   v   =   v1 × · · · × vn   tal que, para todo   w ∈   Rn+1, tem-

se  w, v = det[ v1, . . . , vn, w ] = determinante da matriz cujas colunassao os vetores v1, . . . , vn, w nesta ordem. Prove:

(a) O vetor   v   =   v1 × · · · × vn ∈   Rn+1 esta bem definido e  e uma

funcao n-linear alternada dos vetores  v1, . . . , vn.

(b) Seja   a   = [ v1, . . . , vn ]   a matriz   (n  +  1) × n   cujas colunas sao

 v1, . . . , vn. Para cada i = 1, . . . , n+1, seja ai ∈ M(n×n) a matriz

obtida de a  pela omissao da i-esima linha. Prove que a i-esima

coordenada do vetor v  = v1 × · · · × vn  e igual a (−1)n+i+1 det  ai.

(c) O produto vetorial v  = v1 × · · · × vn  e ortogonal a v1, . . . , vn.

Page 278: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 278/358

Secao 19 Determinantes   267

(d) Tem-se v  = v1×· · ·× vn  = 0  se, e somente se, v1, . . . , vn sao L.D. .

(e) Quando v

 = 0, a norma | v| =  | v1

× · · · × vn|  e igual ao volume do

paralelepıpedo n-dimensional  P[ v1, . . . , vn ] ⊂ Rn+1.

[Sugestao: calcule vol P[ v, v1, . . . , vn ], levando em conta (c).)

(f) Quando os vetores v1, . . . , vn sao L.I., tem-se det[ v1, . . . , vn, v1 ×· · · × vn ] > 0.

(g) O produto vetorial v  =  v1 × · · · × vn  e o  unico vetor de Rn+1 com

as propriedades (c), (d), (e), (f) acima.

19.17. Para cada i  = 1, . . . , n + 1, seja ai ∈ M(n × n) a matriz obtida

omitindo a i-esima linha de a ∈ M((n + 1) × n). Prove que

det(aT a) =

n+1i=1

(det  ai)2.   (Identidade de Lagrange.)

[Sugestao: use (e) acima e o Exercıcio 19.6.]

19.18. Prove que todo operador ortogonal com determinante positivopossui uma raiz quadrada ortogonal. Ela  e  unica?

Page 279: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 279/358

20

O Polinomio Caracterıstico

 Boa parte da importancia dos determinantes em   ´  Algebra Linear se

deve ao polinomio caracter´ ıstico, o qual j´ a tivemos ocasi˜ ao de utilizar

 em dimens ˜ ao 2. Nesta sec ˜ ao, j´ a de posse da noc ˜ ao geral de determi-

nante, vamos considerar esse polinomio em dimens˜ oes arbitr´ arias.

Seja   A :  E →   E   um operador linear num espaco vetorial   E, de

dimensao finita. A fim de que um numero real λ seja autovalor de A,

e necessario e suficiente que exista  v = 0  em  E  tal que (A − λI) v =  0,

ou seja, que o operador   A  − λI :  E

 →  E   tenha nucleo nao-trivial e

portanto nao seja invertıvel. Segundo o Teorema 19.6, isto acontece

se, e somente se, det(A − λI) = 0.

Conforme resulta da definicao classica de determinante,

det(A−λI) e um polinomio de grau n em λ, cujo termo lıder e (−1)n λn.

Ele e chamado o polinomio caracter´ ıstico do operador A e e represen-

tado por pA(λ). Assim,

 pA(λ) = det(A − λI).

 As raızes (reais ou complexas) da equacao alg ebrica  pA(λ) =   0  sao

chamadas as  ra´ ızes caracter´ ısticas   do operador  A. Do que foi ditoacima, segue-se que os autovalores do operador linear  A   sao suas

raızes caracterısticas reais.

Page 280: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 280/358

Secao 20 O Polinomio Caracterıstico   269

Se E  possui produto interno, o polinomio caracterıstico do opera-

dor adjunto A∗ :  E

→E coincide com o do operador  A  pois

 pA∗(λ) = det(A∗ − λI) = det(A − λI)∗  = det(A − λI) = pA(λ).

O polinomio caracterıstico de uma matriz quadrada a ∈ M(n×n)

e, por definicao,  pa(λ) =  det(a −  λIn), ou seja,  e o polinomio carac-

terıstico pA(λ) do operador A :  Rn → Rn cuja matriz na base canonica

e igual a a. Mais geralmente, pa(λ) = pA(λ) para qualquer operador

linear  A :  E

 →  E  cuja matriz, relativamente a uma base arbitraria

de E, seja a. (Vide Teorema 19.7.)

Se duas matrizes   a   e   b  =

  p

−1

ap   sao semelhantes entao seuspolinomios caracterısticos sao iguais. Com efeito, neste caso,   a   e

b   sao matrizes do mesmo operador   A :  Rn →   Rn relativamente a

bases diferentes, logo  pa(λ) =  pA(λ) =  pb(λ). Analogamente, se A e

B =  P−1AP sao operadores semelhantes no espaco vetorial E, existem

duas bases de  E  relativamente  as quais  A  e  B  tem a mesma matriz

a, logo pA(λ) = pa(λ) = pB(λ).

Exemplo 20.1.   Se um dos operadores   A, B :   E

 →  E   (digamos,   B)

e invertıvel entao   pAB(λ) =   pBA(λ). Com efeito, neste caso,   BA   =B(AB)B−1, logo  BA  e  AB  sao operadores semelhantes. A igualdade

entre os polinomios caracterısticos de   AB   e   BA   prevalece, mesmo

quando ambos os operadores,   A   e   B, sao nao-invertıveis. Isto se

prova usando um argumento de continuidade, assim: como o opera-

dor   B   tem no maximo um numero finito de autovalores positivos,

existe um numero real   c > 0   tal que   0 < ε < c ⇒   B  −  εI   in-

vertıvel. Portanto, para todo  ε  positivo, menor do que  c, os opera-

dores   (B −  εI)A  e  A(B −  εI)  tem o mesmo polinomio caracterıstico.

Como os coeficientes do polinomio caracterıstico do operador  B −  εIsao evidentemente funcoes contınuas de ε, fazendo ε → 0 concluımos

que

 pAB  = limε→0

 pA(B−εI)  = limε→0

 p(B−εI)A  = pBA .

Exemplo 20.2.  Um operador  A :  E→E diz-se triangulariz ´ avel  quan-

do existe uma base U   de E  em relacao  a qual a matriz de  A  e trian-

gular. Se a matriz de A  na base U  = { u 1, . . . , u  n}  e triangular inferior

entao, na base U ′  = { u n, . . . , u  1}, a matriz de A  e triangular superior.Isto significa que existem subespacos  Fo ⊂   F1 ⊂ · · · ⊂   Fn   =   E, in-

variantes por  A, tais que dim  Fi   =   i. Se  A  e triangularizavel e, na

Page 281: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 281/358

270   O Polinomio Caracterıstico Secao 20

base U , sua matriz a  = [aij ]  e triangular superior entao o polinomio

caracterıstico de A  e

 pA(λ) =n

i=1

(aii − λ).

Com efeito, a matriz de  A −  λI  na base U   tambem  e triangular su-

perior, com os elementos  aii −  λ  na diagonal, logo seu determinante

e igual ao produto desses numeros. (Exemplo 19.5.) Portanto, as

raızes caracterısticas de um operador triangularizavel sao todas re-

ais, logo sao autovalores desse operador. Em particular, sao reais

as raızes do polinomio caracterıstico de uma matriz simetrica (ou, oque  e o mesmo, de um operador auto-adjunto num espaco com pro-

duto interno) pois toda matriz simetrica e semelhante a uma matriz

diagonal, que e certamente triangular.

 A nocao de polinomio caracterıstico permite concluir que se a

dimensao de   E   e u m numero   ımpar entao todo operador linear

A :  E

→E  possui pelo menos um autovalor. Com efeito, o polinomio

caracterıstico pA(λ), sendo um polinomio real de grau ımpar, possui

pelo menos uma raiz real.Quando dim  E   =   2, sabemos que o polinomio caracterıstico do

operador A :  R2 → R2, cuja matriz na base canonica tem linhas (a, b)

e (c, d),  e igual a

λ2 − (a + d)λ + ad − bc,

onde o coeficiente de λ  e menos a soma a + d dos elementos da diago-

nal dessa matriz e o termo constante,  ad − bc,  e seu determinante.

Em que pese a importancia dos autovalores de  A,  e uma tarefa

complicada a determinacao dos coeficientes de  pA  quando seu graue elevado (e muito mais complicado ainda o calculo de suas raızes).

Um desses coeficientes e, entretanto, f acil de calcular: o termo inde-

pendente de λ  e igual a pA(0), logo e igual a det  A.

Por outro lado, se as raızes de pA  sao λ1, . . . , λn, tem-se

 pA(λ) = (−1)n(λ − λ1) · · · (λ − λn).

Pondo  λ   =   0  vem det  A   =   pA(0) =   λ1 · · · · · λn.  Portanto o determi-

nante de A  e igual ao produto das suas raızes caracterısticas, mesmoquando algumas delas sao numeros complexos. (Como pA  e um po-

linomio real, suas raızes complexas, caso existam, vem aos pares

Page 282: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 282/358

Secao 20 O Polinomio Caracterıstico   271

conjugados, α + iβ e  α − iβ, com produto α 2 + β2, logo o produto das

raızes de pA  e real.)

Outro termo de f acil determinacao no polinomio   pA(λ)  e o coe-ficiente de   λn−1. Na expressao classica de det(A  − λI)   em termos

da matriz  a   = [aij ]  de  A  numa certa base, as parcelas que contem

a potencia  λn−1 resultam do produto  Π(aii  − λ)  dos termos da dia-

gonal de  a −  λIn, logo sao todas da forma  (−1)n−1aiiλn−1. Portanto

(−1)n−1

aii  e o coeficiente de  λn−1 no polinomio pA(λ).

Novamente, a expressao

 pA(λ) = (−1)nn

i=1

(λ − λi)

mostra que o coeficiente de  λn−1 e igual a  (−1)n−1 vezes a soma das

raızes do polinomio pA.

Isto nos leva a concluir que, seja qual for a base escolhida em  E,

a soma Σaii  dos elementos da diagonal da matriz de  A  nessa base  e

a mesma, igual  a soma das raızes caracterısticas de A, que e sempreum numero real (mesmo que haja raızes complexas) pois (α  + iβ) +

(α − iβ) = 2α .

Esta soma   Σaii  chama-se o   traco   do operador   A   e  e designada

com a notacao tr  A.

Segue-se do Exemplo 20.1 que tr  AB =  tr  BA sejam quais forem

os operadores lineares A, B :  E

→E. (Isto tambem se ve diretamente,

multiplicando as matrizes de A  e  B.)

Com esta notacao, quando dim  E   =   2  o polinomio caracterıstico

de um operador A :  E→ E se escreve pA(λ) = λ2 − (tr  A)λ + det  A.

 Vimos no Exemplo 20.2 que as raızes caracterısticas de um ope-

rador triangularizavel sao todas numeros reais. Mostraremos agora

que vale a recıproca.

Para isso, faremos uso do seguinte

Lema. Seja F ⊂ E  um subespaco invariante pelo operador  A :  E→ E.Se   A′ :  F →   F   representa a restric ˜ ao de   A   ao subespaco   F , ent ˜ ao o

 polinomio pA′   ´  e um divisor de pA.

Page 283: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 283/358

272   O Polinomio Caracterıstico Secao 20

Demonstrac ˜ ao:   Sejam  a′  a matriz de  A′   numa base U ′ ⊂   F  e  a  a

matriz de A  numa base U ⊃ U ′. Entao

a =

a′   b

0 c

  e   a − λIn  =

a′ − λIr   b

0 c − λIn−r

  ,

onde r  =  dim  F e  n  = dim  E. Pelo Teorema 19.8, temos

 pA(λ) = det(a − λIn)

= det(a′ − λIr) · det(c − λIn−r)

= pA′(λ) · q(λ),

onde

q(λ) = det(c − λIn−r).

Portanto pA(λ)  e um multiplo de pA′(λ).

Teorema 20.1.  Se as ra´ ızes do polinomio caracter´ ıstico pA s ˜ ao todas

reais ent˜ ao o operador A :  E

→E  ´  e triangulariz´ avel.

Demonstrac ˜ ao:   O teorema  e  obvio se dim  E   =   1. Para prova-lopor inducao, suponhamo-lo valido em dimensao n − 1 e seja dim  E =

n. Introduzamos (caso nao exista ainda) um produto interno em

E. Como  A  e  A∗   tem o mesmo polinomio caracterıstico, o operador

A∗ :  E →   E   tem autovalor logo existe um subespaco   F ⊂   E, de di-

mensao 1, invariante por  A∗. O complemento ortogonal  F⊥   =   Fn−1

e um subespaco vetorial de dimensao  n − 1  em  E, invariante por A,

pois  A  = (A∗)∗. (Vide Teorema 13.3.) Pelo Lema, se  A′ :  Fn−1 → Fn−1

e a restricao de  A  ao subespaco  Fn−1, as raızes do polinomio carac-terıstico   pA′   sao tambem raızes de   pA, logo sao todas reais. Pela

hipotese de inducao, existem subespacos  Fo ⊂  F1 ⊂ · · · ⊂  Fn−1, com

dim  Fi  = i, invariantes por A′, logo invariantes por  A, o que prova o

teorema.

Exemplo 20.3.   Um operador num espaco vetorial de dimensao

2  e triangularizavel se, e somente se, possui ao menos um auto-

valor real. Por exemplo, uma rotacao de  angulo   θ, com   θ =   0   e

θ =  180◦, nao  e triangularizavel pois suas raızes caracterısticas saocos  θ±i sen  θ, ambas complexas. (Vide Exemplo 14.2.) Ja o operador

A :  R2 → R2, A(x, y) = (7x−12y, 3x−5y), tem polinomio caracterıstico

Page 284: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 284/358

Secao 20 O Polinomio Caracterıstico   273

 pA(λ) =  λ2 − 2λ  +  1  com uma raiz real dupla  λ  =  1, logo  A  e trian-

gularizavel. Evidentemente,  A  nao  e diagonalizavel pois se o fosse,

como seu  unico autovalor e 1, seria igual ao operador identidade. Sequisermos achar uma base   { u, v} ⊂   R2 na qual a matriz de  A  seja

triangular superior, basta procurar um autovetor   u   = (x, y), com

Au   =   u , ou seja, basta achar uma solucao nao-trivial  u   = (x, y)  do

sistema 7x  − 12y  = x, 3x  − 5y  = y. Uma dessas solucoes e u  = (2, 1).

Tomando, por exemplo,   v   = (0, 1), a matriz de   A   na base   { u, v}   e1   −6

0 1

. Com efeito, Au  =  u  e  Av  = −6u + v.

Exemplo 20.4.   Seja A : R

3 → R3

a rotacao de  angulo  θ em torno doeixo z . Temos, para todo  (x,y,z ) ∈ R3:

A(x,y,z ) = (x cos  θ − y sen  θ, x sen  θ + y cos  θ, z ).

Para evitar casos especiais  obvios, suponhamos  0 < θ < 180◦. Cha-

mando de a a matriz de A  na base canonica de R3, a matriz de A − λI

e

a − λI3  = cos  θ − λ   − sen  θ 0

sen  θ   cos  θ − λ 0

0 0 1 − λ

logo det(A − λI) = (1 − λ)(λ2 − 2λ cos  θ + 1) = pA(λ).

Portanto o polinomio caracterıstico  pA   tem uma raiz real  1  e duas

raızes complexas cos  θ ± i sen  θ. Assim, nao existe em  R3 uma base

na qual a matriz de A  seja triangular.

Examinando a demonstracao do Teorema 20.1 vemos que, se o

espaco  E  vem provido de um produto interno, ela fornece uma base

ortonormal em relacao  a qual a matriz do operador  A :  E → E   (cujo

polinomio caracterıstico tem apenas raızes reais)  e uma matriz tri-angular. Isto fornece a seguinte interpretacao matricial para aquele

teorema:  se o polinˆ omio caracter   ıstico da matriz  a ∈ M(n × n)   ´ e um

 produto de fatores reais do primeiro grau ent   ao existe uma matriz 

ortogonal  q ∈  M(n × n)  tal que  t  =  qT aq  (=  q−1aq)   ´ e uma matriz 

triangular .

Dados um operador linear A :  E

→E e um polinomio

 p(λ) = ao + a1λ +

· · ·+ am λ

m ,

o sımbolo p(A) representara o operador

 p(A) = aoI + a1A + · · · + am Am ,

Page 285: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 285/358

274   O Polinomio Caracterıstico Secao 20

obtido de p(λ) substituindo-se λi por Ai, tendo o cuidado de lembrar

que Ao = I, logo λo = 1  deve ser substituıdo por I.

Um resultado importante em  ´ Algebra Linear   e o Teorema deCayley-Hamilton, segundo o qual, se   p   =   pA   e o polinomio carac-

terıstico do operador  A  entao  p(A) =  0. Verifiquemos a veracidade

desta afirmacao num caso particular.

Exemplo 20.5.  Seja A :  R2 → R2 dado por

A(x, y) = (ax + by, cx + dy).

O polinomio caracterıstico de A  e

 pA(λ) = λ2 − (a + d)λ + (ad − bc).

 Vamos mostrar que o operador

B =  pA(A) = A2 − (a + d)A + (ad − bc)I

e igual a zero. Para isto, basta verificar que  Be1   =   Be2   =   0. Ora,

temos Ae1

 = (a, c), A2e1

 = (a2 + bc, ac + cd), e1

 = (1, 0), logo

Be1  = A2e1 − (a + d)Ae1 + (ad − bc)e1

= (a2 + bc, ac + cd) − (a2 + ad, ac + cd) + (ad − bc,0)

= (0, 0).

De maneira analoga se ve que Be2  = 0. Portanto B  =  0. Isto mostra

que o Teorema de Cayley-Hamilton vale em dimensao 2.

Provaremos, a seguir, o Teorema de Cayley-Hamilton para ope-

radores triangularizaveis. Na proxima secao mostraremos que, num

espaco vetorial complexo, todo operador  e triangularizavel. Daı de-

duziremos a validez do teorema para qualquer operador num espaco

real.

Teorema 20.2.   Se o polinomio caracter´ ıstico   pA   do operador

A :  E

→E ´  e o produto de fatores reais do primeiro grau ent ˜ ao pA(A)=0.

Demonstrac ˜ ao: Pelo Teorema 20.1 existe uma base { u 1, . . . , u  n} ⊂ E

relativamente  a qual a matriz  a   = [aij ]  de  A  e triangular superior.Se escrevermos  Fo   =   {0}  e  Fi   =   subespaco vetorial de  E  gerado por

 u 1, . . . , u  i, teremos  Fo ⊂   F1 ⊂ · · · ⊂   Fn   =   E  e cada  Fi   e invariante

Page 286: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 286/358

Secao 20 O Polinomio Caracterıstico   275

por  A, ou seja,  A(Fi) ⊂   Fi. Por hipotese, temos  pA(λ) = (−1)n(λ −

λ1) . . . (λ − λn). Escrevendo B  =  pA(A), resulta:

B = (−1)n(A − a11I)(A − a22I) · · · (A − annI)

pois as raızes caracterısticas de  A  sao os elementos  aii  da diagonal

da matriz  a. Para cada   i   =   1, . . . , n, temos   Au i   =   z  + aii u i, onde

z  ∈ Fi−1, portanto (A − aiiI) u i  = z  ∈ Fi−1. Isto mostra que, para todo

i   =   1, . . . , n, o operador  Bi   =   A −  aiiI   transforma  Fi   em  Fi−1. Ora,

temos pA(A) = B  =  B1B2 . . . Bn, logo

 pA(A) transforma E  em  {0}, isto e, pA(A) = 0.

Seja  λo  um autovalor do operador  A :  E

 →  E. A  multiplicidade

 geom´  etrica   de   λo   e a dimensao do subespaco vetorial   Fλo   =   { v ∈E; Av  =  λo v}. A  multiplicidade alg´  ebrica de  λo  e sua multiplicidade

como raiz do polinomio caracterıstico de  A, isto  e,  e o maior inteiro

m  tal que pA(λ) = (λo − λ)m  · q(λ), onde q(λ)  e ainda um polinomio.

Obviamente,   Fλo   e um subespaco invariante por   A. Restrito a

esse subespaco,  A  coincide com  λoI, ou seja,  e simplesmente a mul-

tiplicacao por  λo. Portanto, o polinomio caracterıstico do operador

A′ :  Fλo

→Fλo, restricao de A,  e igual a (λo − λ)r, onde r  e a dimensao

de   Fλo, ou seja, a multiplicidade geometrica do autovalor   λo. Pelo

Lema que antecede o Teorema 20.1, o polinomio caracterıstico de Ae um multiplo de (λo −λ)r, ou seja, pA(λ) = (λo −λ)r q(λ). Isto prova o

Teorema 20.3.  A multiplicidade geom´  etrica de um autovalor ´  e me-

nor do que ou igual a sua multiplicidade alg´  ebrica.

Exemplo 20.6.   No operador  A  do Exemplo 20.3, a multiplicidade

alg ebrica do autovalor 1  e igual a 2 mas a sua multiplicidade geome-

trica e 1.

Teorema 20.4.   Se o operador  A :  E → E   ´  e auto-adjunto, ou ortogo-nal, as multiplicidades geom´  etrica e alg´  ebrica de qualquer autovalor

coincidem.

Page 287: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 287/358

276   O Polinomio Caracterıstico Secao 20

Demonstrac ˜ ao:   Seja  F   =   Fλo   =   { v ∈   E; Av   =   λo · v}. Entao  F  e  F⊥

sao ambos subespacos invariantes por A. Como vimos no Lema que

antecede o Teorema 20.1, se indicarmos respectivamente por A′ :  F→F  e  A′′ :  F⊥ → F⊥  as restricoes de  A  a esses subespacos invariantes,

teremos   pA   =   pA′ ·  pA′′ , ou seja,   pA(λ) = (λo  −  λ)r ·  pA′′(λ), onde

r =  dim  F. Mas, pela definicao de F, nao pode existir em F⊥  (nem em

lugar algum fora de F) um autovetor correspondente ao autovalor λo.

Logo λo nao e raiz de pA′′. Assim, r  e o maior inteiro tal que (λo − λ)r

divide pA, ou seja, e a multiplicidade alg ebrica de λo.

Exercıcios

20.1.  Assinale V(erdadeiro) ou F(also):

( ) Os operadores A  e  A∗  tem os mesmos autovetores.

( ) Sejam a a matriz do operador  A :  Rn

→R

n na base canonica e

p  uma matriz cujas colunas sao autovetores L.I. de  A. Entao

p−1 ap  e diagonal.

( ) Se λ  e autovalor do operador invertıvel A entao λ−1 e autovalor

de A−1.

( ) O polinomio caracterıstico do operador A + B  e a soma dos po-

linomios caracterısticos de A  e  B.

( ) Se   v  e um autovetor comum aos operadores   A   e   B   entao   v   e

autovetor de A + B e de BA.

( ) Duas matrizes triangulares semelhantes sao iguais.

20.2.   Determine os polinomios caracterısticos dos seguintes opera-

dores:

(a) Um multiplo αI  da identidade;

(b) Uma projecao P;

(c) Uma involucao;

(d) O operador de derivacao D : P n → P n.

Page 288: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 288/358

Secao 20 O Polinomio Caracterıstico   277

20.3.  No espaco vetorial  E, de dimensao finita, com produto interno,

seja  Av   =  v, a b  um operador de posto 1. Escreva a matriz de  A

numa base ortonormal que comece com  u 1   =   a/|a|   e, a partir daı,determine o polinomio caracterıstico de  A, seus autovetores e seus

autovalores com as respectivas multiplicidades.

20.4.   Qual o coeficiente de  λ2 no polinomio caracterıstico  pa(λ)  de

uma matriz a  = [aij ] ∈ M(3 × 3) ?

20.5.   Seja   F1  ⊂   E   um subespaco invariante pelo operador linear

A :  E

→E. Se E  = F1 ⊕ F2, seja P  a projecao sobre F2  paralelamente a

F1. Indique com A1 :  F1 → F1  a restricao de A  a F1  e com  A2 :  F2 → F2

o operador dado por  A2 v  =  PAv,  v ∈  F2. Prove que  pA(λ) =  pA1(λ) · pA2

(λ). Seja U  uma base de  E, formada por uma base de  F1  seguida

por outra de F2. Mostre que a matriz de  A  na base U  tem a formaa1   b

0   a2

onde  a1   e   a2   sao as matrizes de  A1   e  A2   respectivamente. De um

enunciado mais simples, em termos de matrizes, para a proposicao

cuja tese e pA(λ) = pA1(λ) · pA2(λ).

20.6.   Determine o polinomio caracterıstico, ache os autovalores e

exiba uma base de autovetores para a matriz

 4   −3 1 1

2   −1 1 1

0 0   − 4 3

0 0 2 1

20.7.  Determine o polinomio caracterıstico e os autovalores da ma-

triz

 4   −3 a3   a 4   a5   a6

2   −1 b3   b 4   b5   b6

0 0   − 4 3 c5   c6

0 0 2 1 d5   d6

0 0 0 0 1 3

0 0 0 0 3   −1

20.8. Quais sao os autovetores do operador de derivacao D :  C∞(R)→C∞(R) ?

Page 289: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 289/358

278   O Polinomio Caracterıstico Secao 20

20.9.  Assinale V(erdadeiro) ou F(also):

( ) Se um operador e diagonalizavel, todas as suas matrizes trian-gulares sao diagonais.

( ) Seja   a  uma matriz triangular nao-diagonal. Se todos os ele-

mentos da diagonal de a  forem iguais, a  nao e diagonalizavel.

( ) Uma matriz 3 × 3 que tem dois autovalores distintos e triangu-

larizavel.

20.10.   Sejam   A, B :  E →   E  operadores cujas raızes caracterısticas

sao todas reais. Se  AB = BA, prove que existe uma base na qual as

matrizes de A  e  B  sao ambas triangulares.

20.11. Ache uma base de R3 na qual o operador A(x,y,z ) = (x + 2y +

3z,4y + 6z, − y − z ) tem uma matriz triangular. Exiba essa matriz.

20.12. Determine o polinomio caracterıtico da matriz

0 1 0 . . . 00 0 1 . . . 0...

  ...  ...

  ...  ...

0 0 0 . . . 1

an−1   an−2   an−3   . . . ao

20.13.   Obtenha o polinomio caracterıstico e os autovalores (com as

respectivas multiplicidades, alg ebricas e geometricas) do operador

A :  Rn →   Rn cuja matriz na base canonica tem todos os elementosiguais a 1.

[Sugestao: use o Exercıcio 20.3.]

20.14.   Prove que o modulo do determinante de um operador in-

vertıvel  e igual ao produto dos seus valores singulares.

20.15.   Sejam  A, B :  E

→E  operadores lineares nao-negativos e  X  a

raiz quadrada nao-negativa de A. Prove:

(a)   AB   e   XBX   tem o mesmo polinomio caracterıstico, logo

det(I + AB) = det(I + XBX).

Page 290: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 290/358

Secao 20 O Polinomio Caracterıstico   279

(b) O operador XBX  e nao-negativo e

det(I + XBX) =

ni=1

(1 + λi),

onde λ1, . . . , λn  sao os autovalores de XBX.

(c) Conclua que det(I+AB) ≥ 1. Em particular, I +AB  e invertıvel.

Page 291: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 291/358

21

Espacos VetoriaisComplexos

 Embora a noc ˜ ao de espaco vetorial tenha sentido (e interesse) sobre

um corpo qualquer, neste livro os vetores (pelo menos at´  e agora) vˆ em

 sendo multiplicados apenas por n ´ umeros reais. Esta opc ˜ ao foi feita

 por uma s´  erie de raz˜ oes, das quais destacaremos duas. Em primeiro

lugar, ao nos limitarmos aos n ´ umeros reais, n˜ ao temos que nos preo-

cupar com as peculiaridades dos v´ arios corpos poss´ ıveis o que, num

livro introdut´ orio, traria o risco de focalizar a atenc ˜ ao no acidental.

 Assim ficou mais f ´ acil nos concentrarmos em quest˜ oes realmente es-

 senciais, sem maior perda de tempo. Em segundo lugar, porque o

caso real ´  e, sem d ´ uvida, o mais importante. Entretanto, o corpo dosn ´ umeros reais n˜ ao ´  e algebricamente completo: nem todo polinomio

com coeficientes reais possui raiz real. O corpo dos n ´ umeros comple-

 xos n ˜ ao sofre dessa deficiˆ encia. Isto torna necess´ ario que alguns teo-

remas referentes a espacos vetoriais reais utilizem n´ umeros comple-

 xos em sua demonstrac ˜ ao (como foi feito, um tanto disfarcadamente,

no Teorema 12.1). Na presente sec ˜ ao, ´  e introduzido o conceito de

 espaco vetorial complexo e ´  e mostrado explicitamente como ele pode

 ser ´ util para demonstrar teoremas sobre espacos vetoriais reais.Nesta secao, os espacos vetoriais que viemos estudando ate agora

serao chamados espacos vetoriais reais e as transformacoes lineares

Page 292: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 292/358

Page 293: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 293/358

282   Espacos Vetoriais Complexos Secao 21

α +iβ = 0  fornece uma base para C. Em particular, {1}  e uma C-base.

Considerando C como espaco vetorial real, o conjunto {1, i} ⊂ C  e L.I.

pois  α · 1 + β · i  =  0, com  α, β ∈  R  implica  α  =  β  =  0. Na realidade, {1, i}  e uma R-base pois todo numero complexo α + iβ =  α · 1 + β · i  e

uma combinacao linear real de 1  e  i. Em virtude da unidimensiona-

lidade, os operadores  C-lineares  A :  C → C consistem simplesmente

na multiplicacao por um numero complexo fixado   α  + iβ. Assim,

para todo v  = x + iy ∈ C, tem-se Av  = (α + iβ) v = (α + iβ)(x + iy) =

αx − βy + i(βx + αy).

 A correspondencia x +iy

↔(x, y)  e um isomorfismo natural entre

os espacos vetoriais reais  C  e  R2. Pelo que acabamos de ver, esse

isomorfismo faz corresponder a cada operador  C-linear  A :  C →   C,

um operador R-linear Ar :  R2 → R2, dado por

Ar(x, y) = (αx − βy, βx + αy),

cuja matriz na base canonica eα    −β

β α 

.

Excetuemos o caso trivial A  =  0. Escrevamos

ρ = 

α 2 + β2

e tomemos θ ∈  R  tal que cos  θ  =  α/ρ, sen  θ  =  β/ρ. Entao a matriz

de Ar  tem a forma

ρ

cos  θ   − sen  θ

sen  θ   cos  θ

.

Isto mostra que o operador  Ar  e uma  semelhanca, composta da ro-tacao de  angulo  θ  com a homotetia de razao  ρ > 0. As semelhancas

sao, portanto, os operadores de R2 que correspondem aos operadores

C-lineares nao-nulos  A :  C→ C.

Guiados pelo Exemplo 21.2, observamos que se U   =   { u 1, . . . , u  n}

⊂   E   for uma base do espaco vetorial complexo   E  entao o conjunto

 U ′  =  { u 1, . . . , u  n, iu 1, . . . , i u  n} ⊂ E  e uma  R-base, ou seja,  e L.I. sobre

os reais e, alem disso, todo vetor v ∈ E  e uma combinacao linear dos

 u  j  e dos iu  j  ( j =  1, . . . , n) com coeficientes reais.

Com efeito, se α 1, . . . , α  n, β1, . . . , βn ∈ R entao

α 1 u 1 + · · · + α n u n + β1iu 1 + · · · + βniu n  = 0

Page 294: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 294/358

Secao 21 Espacos Vetoriais Complexos   283

implica

(α 1 + iβ1) u 1 + · · · + (α n + iβn) u n  = 0,

logo  α 1 + iβ1   = · · ·  =  α n + iβn   =  0  pois U   e L.I. sobre os complexos.Daı resulta que α 1  = · · · = α n  = β1  = · · · =  βn  = 0, portanto U ′  e L.I.

sobre os reais. Alem disso, dado qualquer  v ∈   E, existem numeros

complexos α 1 + iβ1, . . . , α  n + iβn  tais que

 v =

n j=1

(α  j + iβ j) u  j  =

n j=1

α  j u  j +

n j=1

β j(iu  j).

 Assim, U ′

 e uma R-base para E

.

Com uma notacao de significado evidente, podemos portanto con-

cluir que se dimC  E =  n  entao dimR  E =  2n.

Seja   [akj   +   ibkj ]   ∈   M(m  ×   n;C)   a matriz da transformacao

C-linear   A :  E →   F   relativamente  as bases U   =   { u 1, . . . , u  n} ⊂   E   e

V   =   { v1, . . . , vm } ⊂   F. Considerando   E   e   F  como espacos vetoriais

reais, A  pode ser vista como uma transformacao R-linear Ar :  E→ F,

a descomplexificada de  A. Relativamente  as bases

 U ′  = { u 1, . . . , u  n, iu 1, . . . , i u  n} ⊂ E

e

V ′  = { v1, . . . , vm , iv1, . . . , i vm } ⊂ F,

vejamos qual e a matriz de  Ar. Temos, para j  =  1, . . . , n:

Ar u  j  = Au  j  =

m k =1

(akj + ibkj) vk  =

m k =1

akj vk  +

m k =1

bkj(ivk ),

Ar(iu  j) = A(iu  j) = i · Au  j  =m 

k =1

(−bkj) vk  +m 

k =1

akj(ivk ),

Portanto a matriz procurada e

c =

a   −b

b a

 ∈ M(2m × 2n),

onde a  = [akj ] ∈ M(m × n) e  b  = [bkj ] ∈ M(m × n). Esta matriz 2m ×2n chama-se a descomplexificada da matriz [akj +ibkj ] ∈ M(m ×n;C).Mostraremos logo mais que, quando m  = n, tem-se det  c ≥ 0, e que

det  c = 0  se, e somente se, det  A =  0.

Page 295: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 295/358

284   Espacos Vetoriais Complexos Secao 21

Todo espaco vetorial real   E   de dimensao par   2n   pode (de infi-

nitas maneiras) ser considerado como espaco vetorial complexo de

dimensao   n  de tal forma que a nova multiplicacao de um numerocomplexo por um vetor coincida com a multiplicacao anterior quando

esse numero complexo e real. Para isso, basta considerar um opera-

dor  R-linear  J :  E →   E  tal que   J2 = −I  e definir, para cada numero

complexo  ζ  =  α  +  iβ  e cada vetor  v ∈  E, o produto  ζ · v  como  ζ ·  v  =

αv + βJv. (A adicao de vetores continua a mesma.)

 A verificacao de que esta definicao atende  as exig encias sobre as

regras operacionais e imediata. Resta apenas mostrar como se acha

um tal operador   J. Para isso, fixamos uma base de   E, a qual nu-

meramos da forma  { u 1, . . . , u  n, v1, . . . , vn}. Existe um  unico operador

R-linear J :  E→ E tal que Ju 1  = v1, . . . , J u  n  = vn, Jv1  = − u 1, . . . , J vn  =

− u n. Nesta concepcao de   E  como espaco vetorial complexo, o ope-

rador   J   e simplesmente a multiplicacao pelo numero   i, logo   v1   =

iu 1, . . . , vn  = iu n  e { u 1, . . . , u  n} ⊂ E  e uma C-base.

 A nocao de espaco vetorial complexo foi introduzida aqui a fim de

servir como instrumento para obter resultados referentes a espacos

vetoriais reais.

 A esse proposito, a principal vantagem dos espacos vetoriais com-

plexos sobre os reais   e a seguinte: todo operador linear   A :   E→E

num espaco vetorial complexo de dimensao finita possui pelo me-

nos um autovalor (complexo). Antes, porem, de estabelecermos e

explorarmos este fato, vamos retomar uma afirmacao anterior, se-

gundo a qual tudo o que foi feito ate a Secao 9 sobre espacos vetori-

ais reais vale igualmente para complexos. Por que nao foi incluıda a

Secao 10?

E que se faz necessario modificar o conceito de produto internoquando se trata de um espaco vetorial complexo   E. Se o produto

interno for bilinear entao iv, iv   =   i2 v, v   = − v, v, logo nao pode

ser positivo.

O impasse  e resolvido mediante a nocao de  produto interno her-

mitiano. Este  e, por definicao, uma funcao E × E → C que associa a

cada par ordenado de vetores u, v no espaco vetorial complexo E  um

numero complexo, representado pela notacao  u, v, de tal modo que

sejam cumpridas as condicoes seguintes, para quaisquer u, v, u ′ ∈ E,ζ ∈ C, onde uma barra sobre um numero complexo ζ  =  α  + iβ  signi-

fica seu conjugado ζ  =  α − iβ:

Page 296: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 296/358

Secao 21 Espacos Vetoriais Complexos   285

1.    u, v =  v, u ;

2.

   u + u ′, v

 =

 u, v

+

 u ′, v

;

3.   ζu,v = ζ  u, v;

4.    u, u  > 0, se u  = 0.

Das propriedades 1. e 2. segue-se que  u, v + v′ =  u, v +  u, v′.

Com efeito,

 u, v + v′ =  v + v′, u  =  v, u  +  v′, u  =  v, u  +  v′, u =  u, v +

 u, v′

.

 Analogamente se mostra que 1. e 3. implicam que  u, ζv   =

ζ  u, v. Assim, o produto interno hermitiano e sesqui-linear, ou seja,

linear na primeira variavel e anti-linear na segunda. Segue-se de 1.

que  u, v =  v, u ⇔  u, v ∈ R.

Exemplo 21.3.  No espaco Cn, o produto interno canonico e definido,

para u  = (ξ1, . . . , ξn) e  v  = (ζ1, . . . , ζn), como

 u, v = ξ1ζ1 + · · · + ξnζn.

 As 4 propriedades acima sao imediatamente verificadas de modo que

se trata de um produto interno hermitiano.

Exemplo 21.4.   Seja   E   =   C0([a, b ];C)   o espaco vetorial complexo

formado pelas funcoes contınuas f : [a, b ]

→C, definidas no intervalo

[a, b ] e tomando valores complexos. Um produto interno hermitiano

em E

 pode ser definido pondo

f, g =

 ba

f(x)g(x) dx,

para f, g ∈ E quaisquer.

Exemplo 21.5.   Em todo espaco vetorial complexo  E, de dimensao

finita, pode-se introduzir um produto interno hermitiano. (Na reali-

dade, uma infinidade deles.) Basta tomar uma base  { u 1, . . . , u  n}

 ⊂ E

e, para dois vetores

 u  =

ξk  u k , v =

ζk  u k 

Page 297: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 297/358

286   Espacos Vetoriais Complexos Secao 21

quaisquer em E, por

 u, v =

ξk ζk .

Isto mostra que, como no caso real, a existencia de um produto in-terno hermitiano num espaco vetorial complexo de dimensao finita

nao  e uma propriedade adicional desse espaco mas apenas uma es-

colha que se fez dentre infinitas possibilidades.

 A partir da definicao de produto interno hermitiano ha poucas

adaptacoes a fazer a fim de que as restantes secoes, de 10 a 20,

tenham seus resultados validados (e alguns fortalecidos, como ve-

remos logo mais).

Uma das modificacoes a fazer como consequencia da sesqui-line-aridade do produto interno hermitiano diz respeito ao Teorema 11.1,

que passa a ter o seguinte enunciado:

Teorema 21.1.   Seja   E   um espaco vetorial complexo de dimens˜ ao

 finita, munido de um produto interno hermitiano. A correspondˆ encia

que associa a cada vetor  v ∈  E  o funcional linear φ( v) =  v∗ :  E → C ,

tal que v∗( w) =  w, v  para todo w ∈ E , ´  e uma bijec ˜ ao φ :  E

→E∗  tal

que ( u + v)∗  = u ∗ + v∗  e (ζv)∗  = ζ · v∗  para quaisquer u, v ∈ E  e  ζ ∈ C.

 Acima,  E∗  e, como antes, o  dual  de  E, ou seja, o espaco vetorialcomplexo cujos elementos sao os funcionais C-lineares  f :  E→ C.

 A diferenca entre os Teoremas 11.1 e 21.1  e que, neste  ultimo, a

correspondencia v →  v∗ nao e um isomorfismo entre E e E∗, pois falha

a condicao   (ζv)∗   =   ζv∗, em vez da qual se tem apenas  (ζv)∗   =   ζv∗.

Com efeito, para todo  w ∈ E, tem-se

(ζv)∗( w) =  w, ζv = ζ  w, v = ζv∗( w),   portanto (ζv)∗  = ζv∗.

Por isso, ela se chama um  anti-isomorfismo.O Teorema 21.1 pode entao ser refraseado dizendo-se que a bije-

cao φ :  E→ E∗  nele definida e um anti-isomorfismo.

Isto nao impede de maneira nenhuma que se defina a adjunta

A∗ :  F → E  de uma transformacao  C-linear  A :  E → F, entre espacos

vetoriais complexos munidos de produto interno hermitiano, como a

unica transformacao C-linear A∗ :  F

→E tal que

Av,w

 =

 v, A∗ w

para   v ∈   E,   w ∈   F   quaisquer. Valem as propriedades   (A  + B)∗   =

A∗  + B∗,   (BA)∗   =   A∗B∗,  I∗   =   I,  (A∗)∗   =  A  e  (A∗)−1 = (A−1)∗, nesta

Page 298: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 298/358

Secao 21 Espacos Vetoriais Complexos   287

ultima entendendo-se (como antes) que A∗  e invertıvel se, e somente

se,   A   e. A  unica diferenca diz respeito  a adjunta de   ζA. Tem-se

(ζA)∗  = ζA∗  quando ζ  e um numero complexo.Outra mudanca ocorre no Teorema 11.2, que passa a ter o enun-

ciado abaixo.   E   e   F   sao espacos vetoriais complexos, com produto

interno hermitiano.

Teorema 21.2.   Se a matriz da transformac ˜ ao   C-linear   A :   E→F

relativamente a bases ortonormais U   =   { u 1, . . . , u  n}  ⊂   E   e V   =

 { v1, . . . , vm } ⊂   F   ´  e   a   = [akj ] ∈   M(m  × n)   ent˜ ao a matriz da trans-

 formac ˜ ao adjunta A∗ :  F

→E  relativamente as bases  V  , U   ´  e a matriz

a∗  = aT 

 , transposta da conjugada de  a. A  matriz conjugada  de  a   = [akj ] ∈   M(m × n;C)  e a matriz  a   =

[akj ] ∈   M(m  × n;C)  onde cada elemento   akj   e o numero complexo

conjugado do elemento correspondente akj  da matriz a.

Um operador  C-linear   A :   E →   E   chama-se  hermitiano   quando

A   =  A∗, ou seja, quando Au,v   =  u, Av  para quaisquer  u, v ∈  E.

Em particular, quando   u   =   v, temos Av,v   =  v, Av. Portanto,

quando A  e hermitiano, a forma quadratica ϕ( v) =  v, Av so assume

valores reais.Uma matriz a = [akj ] ∈ M(n×n;C) chama-se hermitiana quando

a  =  a∗, isto  e, quando  a jk   =  akj  para  k, j  =   1, . . . , n. Em particular,

a jj   =   a jj  para todo   j   =   1, . . . , n  portanto a diagonal de uma matriz

hermitiana so possui numeros reais. Para matrizes reais, hermiti-

ana e o mesmo que simetrica.

Um operador  C-linear  A :  E

→E  e hermitiano se, e somente se,

sua matriz relativamente a uma (e portanto a qualquer) base orto-

normal de E  e uma matriz hermitiana.

Um operador   C-linear   U :   E →   E   chama-se   unit´ ario   quando

U∗   =   U−1. Isto equivale a dizer que Uv, Uw   =  v, w  para quais-

quer v, w ∈ E.

Se U :  E→ E e um operador unitario entao, para todo v ∈ E tem-se

|Uv|  =   | v|. Vale tambem a recıproca. Para prova-la, usa-se a  identi-

dade de polarizac ˜ ao

 u, v

 =

  1

 4

[| u + v|2 − | u − v|2 + i| u + iv|2 − i| u − iv|2 ],

cuja verificacao  e imediata. Sua forma e mais complicada do que a

analoga real, devido ao fato de que o produto interno hermitiano nao

Page 299: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 299/358

288   Espacos Vetoriais Complexos Secao 21

e simetrico.

Uma matriz u ∈ M(n×n;C) chama-se unit´ aria quando u∗  = u−1.

Para que isto aconteca basta que  u∗u  = In, ou que uu∗  =  In. A pri-meira destas igualdades significa que as colunas de  u  formam uma

base ortonormal de  Cn (relativamente ao produto interno hermiti-

ano). A segunda assegura a mesma propriedade para as linhas de

u. As matrizes unitarias reais sao as ortogonais.

Feitas essas observacoes de carater geral, passemos a tirar pro-

veito da estrutura complexa.

O determinante e o polinomio caracterıstico, como nao tem nada

a ver com produto interno, se definem de modo analogo ao caso real.

Segundo o Teorema Fundamental da   ´ Algebra, todo polinomio

 p(λ) = ao + a1λ + · · · + anλn

com coeficientes complexos  ao, . . . , an  (em particular, com coeficien-

tes reais), com an  = (−1)n, se decompoe como produto

 p(λ) =

nk =1

(λk  − λ)

de fatores do primeiro grau. Os numeros complexos  λ1, . . . , λn, nao

necessariamente distintos, sao as raızes do polinomio   p, cada um

deles comparecendo na lista λ1, . . . , λn um numero de vezes chamado

sua multiplicidade como raiz do polinomio. A multiplicidade de λk  e

m  se, e somente se,  m  e o maior inteiro tal que  p(λ)  e divisıvel por

(λk  − λ)m .

Seja  pA(λ) =  det(A −  λI)  o polinomio caracterıstico do operadorC-linear  A :  E →   E. O numero complexo  λo   e uma raiz de  pA   se, e

somente se, o operador A − λoI  e nao-invertıvel, ou seja, existe v = 0

em  E  tal que  Av  =  λo v. Portanto, para espacos vetoriais complexos,

as raızes caracterısticas de um operador  A :  E →   E  coincidem com

os autovalores desse operador. Como as primeiras sempre existem,

segue-se que todo operador  C-linear possui autovalores (que podem

ser reais ou complexos).

 A existencia de autovetores nos espacos vetoriais complexos im-plica a seguinte versao fortalecida do Teorema 20.1, da qual decor-

rerao todas as conclusoes a que chegaremos nesta secao.

Page 300: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 300/358

Secao 21 Espacos Vetoriais Complexos   289

Teorema 21.3.  Todo operador C-linear A :  E

→E  ´  e triangulariz´ avel.

 A demonstracao  e a mesma do Teorema 20.1. So que agora nao

e necessario fazer hipotese adicional sobre  A  porque todo operador

linear complexo tem autovetor.

Como anteriormente, vale a importante observacao de que se  E

possui produto interno hermitiano, o enunciado acima pode ser tor-

nado mais preciso: existe uma base ortonormal U ⊂   E  na qual a

matriz de A  e triangular superior (ou inferior, se assim o quisermos).

 A versao matricial desse teorema  e:  para toda matriz complexa

a  existe uma matriz unit´ aria  u  tal que  u∗au   =   u−1au   =   t   ´ e uma

matriz triangular . Vejamos, a seguir, algumas consequencias do Teorema 21.3. Na

primeira delas, temos um operador linear   A :  E →   E   num espaco

vetorial complexo E.

Teorema de Cayley-Hamilton.   Se pA   ´  e o polinomio caracter´ ıstico

do operador C-linear A :  E

→E ent˜ ao pA(A) = 0.

Demonstrac  ao:  segue exatamente a linha da demonstracao do Te-

orema 20.2 pois, em virtude do Teorema 21.3, todo operador C-lineare triangularizavel.

Evidentemente, vale uma versao matricial de Cayley-Hamilton.

Para toda matriz  a ∈  M(n × n;C), o polinomio caracterıstico  pa(λ)

e exatamente o polinomio  pA(λ), onde  A :  Cn → Cn e o operador  C-

linear que tem matriz a  na base canonica. Tem-se tambem pa  = pA

para qualquer operador   C-linear   A :   E

 →  E   cuja matriz, relativa-

mente a uma base arbitraria em E

, seja igual a a. Qualquer que seja

o polinomio q(λ), vemos que q(a) ∈ M(n × n;C)  e a matriz do opera-

dor q(A) na mesma base relativamente a qual a e a matriz de A. Por-

tanto, se  pa   ´ e o polinˆ omio caracter   ıstico da matriz  a ∈ M(n × n;C),

tem-se  pa(a) = 0.

Se acontecer de a matriz  a ser real, seu polinomio caracterıstico

 pa   e um polinomio real e ainda assim se tem  pa(a) =   0, pois todo

numero real e complexo. Segue-se daı o

Teorema de Cayley-Hamilton para operadores reais.   SejaA :  E →   E  um operador linear num espaco vetorial real  E. Se  pA   ´  e

 seu polinomio caracter´ ıstico, tem-se pA(A) = 0.

Page 301: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 301/358

290   Espacos Vetoriais Complexos Secao 21

Demonstrac ˜ ao:   Seja  a ∈ M(n × n) a matriz de  A  relativamente a

uma certa base de  E. Entao  pa(a) =   0. Como  pa(a)  e a matriz do

operador  pA(A) nessa mesma base, segue-se que  pA(A) = 0.Continuemos apresentando consequencias do Teorema 21.3.

Sejam a  = [akj ], b  = [bkj ] matrizes n × n triangulares superiores,

de modo que akj  =  bkj  =  0 se k > j. O  j-esimo elemento da diagonal

do produto ab e (ab) jj  =

ra jrbrj  = a jjb jj pois a jr  = 0  se j > r e brj  = 0

se  j < r. Segue-se imediatamente que os elementos da diagonal de

am  tem a forma am  jj . Daı resulta, mais geralmente, se p(λ) e qualquer

polinomio entao p(a)  e uma matriz triangular superior cuja diagonal

e formada pelos numeros p(a jj), onde a jj  percorre a diagonal de a.Se A :  E → E  e um operador  C-linear, suas raızes caracterısticas,

ou seja, seus autovalores, sao (contando multiplicidades) os elemen-

tos da diagonal de uma matriz triangular que representa   A   rela-

tivamente a uma base conveniente de   E. Segue-se do que foi dito

acima que, se   p(λ)  e qualquer polinomio, os autovalores do opera-

dor p(A), incluindo suas multiplicidades alg ebricas, sao os numeros

 p(λ j), onde λ1, . . . , λn  sao os autovalores de A.

Um caso particular interessante  e o de um operador nilpotenteA :  E → E. Isto significa, como se sabe, que existe um inteiro  m > 0

tal que Am  = 0. Neste caso, se n  =  dim  E afirmamos que o polinomio

caracterıstico de A  e pA(λ) = (−1)nλn.

Consideremos inicialmente o caso em que  A  e C-linear. Seja U ⊂E  uma base relativamente  a qual a matriz   a   = [akj ]   do operador

A  e triangular superior. Os elementos  a jj   da diagonal de  a  sao os

autovalores de  A, contados com suas multiplicidades. O polinomio

caracterıstico de A  e portanto

 pA(λ) =nΠ

 j=1(a jj − λ).

Os elementos da diagonal de  am  sao am  jj ,  j  =  1, . . . , n. Como am  =  0,

segue-se que todos os a jj sao nulos, logo o polinomio caracterıstico de

A  e pA(λ) = (−1)nλn.

Do ponto de vista matricial, podemos afirmar que se   a   e uma

matriz  n × n  (real ou complexa, tanto faz) com  am  =  0  para algum

m  inteiro > 0 entao seu polinomio caracterıstico  e pa(λ) = (−1)nλn.Daı resulta que, dado o operador R-linear A :  E→ E no espaco ve-

torial real E, com dim  E =  n, se tivermos Am  = 0  para algum inteiro

Page 302: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 302/358

Secao 21 Espacos Vetoriais Complexos   291

m > 0 entao o polinomio caracterıstico de A  e pA(λ) = (−1)nλn. Com

efeito, este  e o polinomio caracterıstico da matriz  a  do operador  A

numa base qualquer de  E, a qual cumpre am 

= 0.Em seguida, usaremos a forma triangular para provar que o de-

terminante do operador Ar :  E → E, descomplexificado de um opera-

dor C-linear A :  E→ E,  e sempre ≥ 0.

Com efeito, seja U   =  { u 1, . . . , u  n} ⊂ E  uma base na qual a matriz

m   = [akj  + ibkj ]  de  A  e triangular superior:   akj   =  bkj   =  0  se  k > j.

Para todo j  =  1, . . . , n, temos

Au  j  =

nk =1

(akj + ibkj) u k .

Consideremos agora a base U ′  = { u 1, iu 1, . . . , u  n, iu n} do espaco veto-

rial real E. Para obter a matriz c  do descomplexificado Ar :  E→ E na

base U ′, observamos que

Ar · u  j  =

(akj u  j + bkj · iu  j)   e   Ar · iu  j  =

(−bkj u  j + akj · iu  j).

Daı resulta que a matriz  c  tem uma forma “triangular por blocos”.

Mostramos abaixo esta matriz no caso n  =  3:

c =

a11   −b11   a12   −b12   a13   −b13

b11   a11   b12   a12   b13   a13

0 0 a22   −b22   a23   −b23

0 0 b22   a22   b23   a23

0 0 0 0 a33   −b33

0 0 0 0 b33   a33

.

Segue-se imediatamente do Teorema 19.8 que o determinante da

matriz c  e dado por:

det  c =

n j=1

det

a jj   −b jj

b jj   a jj

 =

n j=1

(a2 jj + b2

 jj).   (*)

Sendo a matriz m  = [akj + ibkj ] triangular, os numeros complexosλ j  = a jj + ib jj  sao seus autovalores e det  m =

λ j . Por outro lado, a

igualdade (*) mostra que det  c =

|λ j|2.

Page 303: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 303/358

292   Espacos Vetoriais Complexos Secao 21

 Vemos entao que det  Ar   =   det  c ≥   0, valendo det  Ar   =   0   se,

e somente se, det  A   =   det  m   =   0. Vemos tambem que det  Ar   =

| det  A|

2

.Noutras palavras, dada a matriz n × n complexa m  = [akj + ibkj ],

formamos as matrizes reais  a  = [akj ], b  = [bkj ] ∈ M(n × n) e

c =

a   −b

b a

 ∈ M(2n × 2n).

 Vale entao det  c =  | det  m|2.

Mais uma exibicao de forca do Teorema 21.3  e o seu uso para

demonstrar a versao geral do Teorema Espectral para operadores

complexos, conforme faremos agora.

Um operador  C-linear  A :  E → E  num espaco vetorial complexo,

de dimensao finita, chama-se   normal   quando comuta com seu ad-

 junto, isto e, quando cumpre a condicao AA∗  = A∗A. Analogamente,

uma matriz quadrada a  chama-se normal quando aa∗  = a∗a.

Evidentemente um operador e normal se, e somente se, sua ma-

triz relativamente a uma (e portanto a qualquer) base ortonormal  e

uma matriz normal.

Teorema Espectral para operadores complexos.   Seja   E   um

 espaco vetorial complexo, munido de um produto interno hermitiano.

Um operador  C-linear A :  E → E  ´  e normal se, e somente se, existe em

E uma base ortonormal formada por autovetores de  A.

 Vers ˜ ao matricial do Teorema Espectral.   Seja a matriz   a  ∈M(n × n;C). A fim de que exista uma matriz unit´ aria   u   tal que

d =  u∗au  ´  e diagonal ´  e necess´ ario e suficiente que a∗a =  aa∗.

Demonstrac ˜ ao:  Continuando com a veia matricial que tem predo-

minado nestas  ultimas paginas, provaremos a segunda versao, cla-

ramente equivalente  a primeira. Seja   u   uma matriz unitaria tal

que  t  =  u∗au  seja triangular. Tomando adjuntas, vem  t∗   =  u∗a∗u.

Multiplicando membro a membro:   tt∗   =   u∗auu∗a∗u   =   u∗aa∗u.

Fazendo a mesma multiplicacao na ordem inversa:   t∗t   =   u∗a∗au.

Como   aa∗   =   a∗a, concluımos que   t∗t   =   tt∗. Ora, sendo triangu-

lar e normal,  t  deve ser diagonal. (compare (tt∗)ii   com   (t∗t)ii   parai = 1, depois i  = 2, etc.) Assim u∗au  e diagonal. Reciprocamente, se

d  = u∗au  e diagonal entao dd∗  = d∗d, o que nos da imediatamente

Page 304: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 304/358

Secao 21 Espacos Vetoriais Complexos   293

u∗a∗au =  u∗aa∗u. Multiplicando esta igualdade  a esquerda por u  e

a direita por u∗  obtemos a∗a = aa∗  logo a  e normal.

Corolario.  Se A :  E→ E  ´  e um operador hermitiano, existe uma baseortonormal de E  formada por autovetores de A.

 A matriz de A  nesta base  e diagonal e, sendo hermitiana, os ele-

mentos da diagonal sao numeros reais. Segue-se que os autovalores

de um operador hermitiano sao todos reais.

Outro caso particular de operador normal e um operador unitario

o qual tambem admite uma base ortonormal formada por auto-veto-

res. Os autovalores de um operador unitario sao numeros complexosde modulo 1.

Exercıcios

21.1.   Seja   E   um espaco vetorial real. O   complexificado   de   E   e o

conjunto  Ec  cujos elementos sao as expressoes formais  u  +  iv, com u, v ∈   E  e  i   = √ −1. Em  Ec, a igualdade  u  +  iv   =  u ′  + iv′   significa,

por definicao, que  u  =  u ′  e  v  =  v′. A soma  e definida por  ( u  +  iv) +

( u ′ +  iv′) = ( u  + u ′) + i( v + v′) e o produto por um numero complexo

e, ainda por definicao,   (α  + iβ)( u  + iv) = (αu  − βv) + i(βu  + αv).

Para todo  u  ∈   E, escreve-se  u  + i0   =   u   e com isso tem-se  E ⊂   Ec.

O complexificado de um operador linear   A :  E →   E  e  Ac :  Ec →   Ec,

definido por Ac( u + iv) = Au + iAv. Prove:

(a)   Ec  e um espaco vetorial complexo e Ac :  Ec → Ec  e um operador

C-linear. O complexificado de Rn e Cn.   E ⊂ Ec  mas  E  nao e um

subespaco vetorial (complexo) de Ec.

(b) Toda R-base  { u 1, . . . , u  n} ⊂ E  e uma  C-base de  Ec. Em particu-

lar, dimC  Ec  = dimR  E. A matriz de Ac :  Ec → Ec  relativamente

a base   { u 1, . . . , u  n} ⊂  E  coincide com a matriz de  A  na mesma

base. Os polinomios caracterısticos de Ac  e de A  sao iguais.

(c) Se λ=α +iβ, com β=0,  e autovalor de Ac, correspondente ao au-

tovetor u +iv∈Ec, entao { u, v}  e a base de um subespaco vetorial

Page 305: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 305/358

294   Espacos Vetoriais Complexos Secao 21

F ⊂ E, invariante por A, e a matriz da restricao A :  F

→F  e

 α β

−β α 

.

21.2.   Seja A :  E → E um operador linear, com dim  E  = n. Considere

o conjunto M de todos os polinomios p(λ) tais que p(A) = 0. Prove:

(a) Se   p1(λ), p2(λ)  ∈ M   e   α 1,   α 2   sao numeros entao   α 1 p1(λ) +

α 2 p2(λ) ∈ M.

(b) Se p(λ) ∈ M e  q(λ)  e qualquer polinomio entao p(λ)q(λ) ∈ M.

(c) Existe um  unico polinomio monico  m A(λ) ∈ M   tal que todos

os outros  p(λ) ∈ M  sao multiplos de  m A(λ). [Considere o po-

linomio monico de menor grau possıvel em M. Chame-o de

m A(λ). Para todo  p(λ) ∈ M tem-se  p(λ) =  q(λ) · m A(λ) + r(λ),

com gr ·r(λ)   <   gr ·m A(λ). Segue-se de (a) e (b) que  r(λ) ∈ M,

logo r(λ) = 0.]

(d) O polinomio m A(λ) chama-se o  polinomio m´ ınimo do operadorA. Ele e o polinomio monico de menor grau tal que m A(A) = 0.

 As conclusoes acima valem igualmente para espacos vetoriais

reais ou complexos.

(e) Se B :  E → E  e invertıvel entao, para todo polinomio p(λ), tem-

se  p(B−1 AB) =  B−1 ·  p(A) · B. Segue-se que os operadores  A  e

B−1 AB tem o mesmo polinomio mınimo.

(f) Para toda matriz a do operador A,   m A(λ)  e o polinomio monicode menor grau tal que  m A(a) = 0.

21.3.  Determine o polinomio mınimo dos seguintes operadores:

(a) O operador zero.

(b) O operador αI, com α  = 0.

(c) Uma projecao.

(d) Uma involucao.

Page 306: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 306/358

Secao 21 Espacos Vetoriais Complexos   295

(e) O operador de derivacao D : P n

→P n.

(f) O operador A :  R2 → R

2

, A(x, y) = (x + 2y,2x + y).

(g) Qualquer operador A :  R2 → R2.

Em todos estes casos, compare com o polinomio caracterıstico.

21.4.  Prove que um operador  e invertıvel se, e somente se, o termo

constante do seu polinomio mınimo e

= 0.

21.5.   Seja   p(λ)   um polinomio tal que   p(A) =   0. Prove que todo

autovalor   λ1   do operador  A   e raiz do polinomio   p(λ). Conclua daı

que toda raiz do polinomio caracterıstico   pA(λ)   e tambem raiz do

polinomio mınimo m A. (A recıproca e evidente porque m A divide pA.)

21.6.   Determine o polinomio mınimo do operador dado por   Av   =

 v, a b.

21.7.   Seja A :  E → E  um operador num espaco vetorial de dimensao

n. Prove: se Ak  = 0  para algum k > n entao An = 0.

[Sugestao: Teorema 21.3.]

21.8.  Prove que um operador e nilpotente (isto e Ak  = 0  para algum

k  ∈ N) se, e somente se, todos os seus autovalores sao iguais a zero.

21.9.   Se o operador   A   e diagonalizavel e   λ1, . . . , λk   sao seus auto-

valores distintos dois a dois, prove que o polinomio mınimo de  A  em A  = (λ − λ1)(λ − λ2) · · · (λ − λk ).

21.10.   Se o operador   A :  E →   E   (num espaco vetorial complexo)  e

diagonalizavel, prove que existe um produto interno hermitiano em

E que torna A  normal.

21.11.   Seja E um espaco vetorial (complexo) munido de um produto

interno hermitiano. Prove que todo operador linear   A :  E →   E   se

escreve, de modo  unico, como   A   =   H +  iK, onde   H, K :  E →   E   saooperadores hermitianos e que   A  e normal se, e somente se,   H  e  K

comutam.

Page 307: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 307/358

296   Espacos Vetoriais Complexos Secao 21

21.12.  Sem fazer calculo algum, conclua que o produto de duas ma-

trizes 2n × 2n do tipo a   −bb a

e ainda deste mesmo tipo.

21.13. Assinale V(erdadeiro) ou F(also):

( ) O determinante de um operador hermitiano e um numero real.

( ) Os autovalores de um operador unitario sao iguais a

 ±1.

( ) Os autovalores de um operador real anti-simetrico sao do tipo

±iβ, onde β  e real.

( ) Se

a =

cos  θ   − sen  θ

sen  θ   cos  θ

,

existe uma matriz (complexa) 2×2 invertıvel p tal que p−1ap =

d, onde d  e diagonal (complexa).

21.14.   Prove que todo operador num espaco vetorial (complexo) de

dimensao n  possui um subespaco invariante de dimensao n − 1.

21.15.   Sejam   λ1, . . . , λn   os autovalores do operador   A :   E →   E

(repetidos de acordo com suas multiplicidades alg ebricas). Dado um

polinomio qualquer p(λ), prove que os autovalores do operador  p(A)

sao os numeros p(λ1

), . . . , p(λn

). [Sugestao: Teorema 21.3.]

21.16.   Prove que as seguintes afirmacoes acerca dos operadores li-

neares A, B :  E→ E sao equivalentes:

(a)   pA(B)  e invertıvel. (Onde pA  e o polinomio caracterıstico de A.)

(b)   A e  B  nao tem autovalores em comum.

(c)   pB(A)  e invertıvel.

(d) Se  m A  e  m B  sao os polinomios mınimos de  A  e  B  entao  m A(B)

e m B(A) sao invertıveis. [Sugestao: use o exercıcio anterior.]

Page 308: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 308/358

Secao 21 Espacos Vetoriais Complexos   297

21.17. Suponha que o polinomio mınimo m A(λ) = (λ − λ1) · · · (λ − λk )

do operador linear A :  E

→E seja um produto de fatores distintos do

primeiro grau (λi = λ j  se i = j). Prove:

(a) Escrevendo m A(λ) = pi(λ)(λ − λi) e Bi  = pi(A), tem-se A(Bi v) =

λiBi v  (i = 1, . . . , k  ) para todo v ∈ E.

(b) Os polinomios p1(λ), . . . , pk (λ) sao primos entre si, logo existem

q1(λ), . . . , qk (λ) tais que

i=1 qi

) pi

) = 1.

(c) Seja  Ci   =  qi(A). Para todo v ∈  E  tem-se  v  =  ΣBi(Ci v), logo os

autovetores de A  geram E.

(d) O operador A  e diagonalizavel.

21.18.   Sejam   A,   B,   X   operadores lineares no espaco vetorial   E.

Prove:

(a) Se AX − XB  =  0  entao A2X =  XB2 e, mais geralmente, p(A)X =

Xp(B) para todo polinomio p.

(b) Se A  e  B nao tem autovalores em comum entao AX  =  XB se, e

somente se, X  = 0.

(c) Se A e  B nao tem autovalores em comum entao para todo ope-

rador linear  C :  E → E  existe um  unico  X ∈ L(E)  tal que  AX −

XB =  C.

21.19.   Sejam   λ1, . . . , λn   os autovalores da matriz   a, repetidos de

acordo com suas multiplicidades alg ebricas. Prove que

λ21 + · · · + λ2

n  =

i,j

aija ji.

21.20.  Se existir algum  k  ∈  N  tal que  Ak  =  I, prove que o operador

A :  E→ E  e diagonalizavel. [Sugestao: Exercıcio 21.17.]

Page 309: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 309/358

298   Espacos Vetoriais Complexos Secao 21

21.21.   Sejam F1 ⊂ F2  subespacos invariantes do operador  A :  E

→E.

Se dim  F2 − dim  F1 ≥  2, prove que existe um subespaco  F, diferente

de F1  e F2, invariante por A, tal que F1 ⊂ F ⊂ F2.

21.22.   Seja  A :  E → E  um operador nilpotente no espaco vetorial  E

(real ou complexo) de dimensao n. Tome k , o menor numero natural

tal que Ak  = 0. Prove sucessivamente:

(a)   {0} ⊂ N (A) ⊂ N (A2) ⊂ . . . ⊂ N (Ak ) = E;

(b) Se

 N (Ai) =

 N (Ai+1) entao

 N (Ai+1) =

 N (Ai+2);

(c) Nenhuma das inclusoes em (a) se reduz a uma igualdade;

(d)   k  ≤ n.

Page 310: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 310/358

22

Equacoes aDiferencas Finitas

 Em muitas aplicac˜ oes da Matem´ atica o tempo ´  e discreto. Isto sig-

nifica que, ao contr´ ario da Cinem´ atica, na qual o tempo flui con-

tinuamente, nestas situac˜ oes que temos em mente (Economia, por exemplo) as grandezas s ˜ ao medidas em instantes isolados, formando

uma seq¨ uˆ encia. Nestes casos, as equac˜ oes diferenciais n˜ ao s˜ ao o ins-

trumento adequado para exprimir a evoluc ˜ ao dos fenomenos, sendo

 substitu´ ıdas pelas equac˜ oes a diferencas finitas. Nesta sec ˜ ao, estu-

daremos os tipos mais simples dessas equac˜ oes, como aplicac ˜ ao de

alguns dos resultados obtidos nas sec˜ oes anteriores.

Numa equacao a diferencas finitas, a incognita  e uma sequencia

(x0, x1, . . . , xk , . . . ), cujos termos devem satisfazer uma relacao dada.Se a relacao  e do tipo  xk +1   =   f(xk ), onde   f  e uma funcao determi-

nada, tem-se uma equacao de primeira ordem. Se  e do tipo  xk +2   =

f(xk , xk +1), tem-se uma equacao de segunda ordem, e assim por di-

ante.

Fixado arbitrariamente um numero x0, toda equacao de primeira

ordem   xk +1   =   f(xk )   admite uma  unica solucao   (x0, x1, . . . , xk , . . . )

com valor inicial  x0. Basta tomar sucessivamente x1   =   f(x0),   x2   =

f(x1), etc. De modo analogo, fixados arbitrariamente  x0   e  x1, todaequacao de segunda ordem   xk +2   =   f(xk , xk +1)   admite uma  unica

solucao (x0, x1, x2, . . . , xk , . . . ) cujos dois valores iniciais sao os nume-

Page 311: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 311/358

300   Equacoes a Diferencas Finitas Secao 22

ros dados. Basta tomar sucessivamente  x2  =  f(x0, x1), x3  =  f(x1, x2),

etc. E assim por diante: toda equacao de ordem n  possui uma  unica

solucao cujos n  valores iniciais sao fixados arbitrariamente.Observac ˜ ao.  Nesta secao, o primeiro termo de toda sequencia tem

ındice 0, em vez de 1.

Exemplo 22.1.   A solucao da equacao de primeira ordem   xk +1   =

xk  + b  com valor inicial  xo  e a sequencia  (xo, xo  + b, xo + 2b, . . .), de

termo geral xk  = xo + kb ( progress ˜ ao aritm´  etica de razao b).

Exemplo 22.2.   A equacao  xk +1   =   axk   (linear, homog enea, de pri-

meira ordem, com coeficiente constante) tem para solucao, com valor

inicial  xo, a sequencia  (xo, axo, a2xo, . . . , ak xo, . . .) cujo termo geral  e

xk  = ak .xo  ( progress ˜ ao geom´  etrica de razao a).

Exemplo 22.3.   Combinando os exemplos anteriores, seja   xk +1   =

axk +b a equacao linear, nao-homog enea, de primeira ordem, com co-

eficientes constantes. Se (xo, x1, . . . , xk . . .)  e a solucao desta equacao

com valor inicial xo, entao temos sucessivamente:

x1  = axo + b,

x2  = ax1 + b =  a2xo + (1 + a)b,

x3  = ax2 + b =  a3xo + (1 + a + a2)b,

...

xk  = axk −1 + b =  ak .xo + (1 + a + · · · + ak −1)b

Portanto a solucao geral da equacao xk +1  = axk  + b  e

xk  = ak .xo +  1 − ak 

1 − a  · b,   se   a = 1

xk  = xo + k · b,   se   a =  1.

Exemplo 22.4.   A equacao   xk +1   =   axk  + b   pode ser olhada sob o

ponto de vista de um operador linear  A :  R∞ → R∞, no espaco  R∞,

cujos elementos sao as sequencias  x   = (xo, x1, . . . , xk , . . .). O opera-

dor   A  associa a cada sequencia   x  a nova sequencia   y   =   Ax, onde

 yk   =   xk +1  −  axk . A equacao dada equivale ao problema de acharos elementos   x ∈   R∞ tais que   Ax   =   b, onde  b   = (b , b , . . .)  e uma

sequencia constante de termos todos iguais a   b. Como vimos no

Page 312: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 312/358

Secao 22 Equacoes a Diferencas Finitas   301

Teorema 6.4, a solucao geral da equacao   Ax   =   b  e a soma de um

elemento qualquer do nucleo de   A   (solucao geral da equacao ho-

mog enea Ax=0) com uma solucao particular da equacao Ax=^b dada.Para obter uma dessas solucoes particulares, tentamos a solucao

constante  c = (c , c , . . .). O numero c  deve cumprir  c  = ac + b, isto e,

(1 − a)c = b. Como no caso  a  = 1  ja foi visto no Exemplo 22.1, supo-

mos aqui a = 1  e obtemos c  = (1 − a)−1.b. Por sua vez, a solucao ge-

ral de Ax  =  0 (equacao equivalente a xk +1   =  axk )  e uma progressao

geometrica   ( p, ap, a2 p, . . .)  cujo primeiro termo   p   e arbitrario. As-

sim, a solucao geral da equacao  xk +1   =  axk  + b, para  a =  1,  e dada

por  xk   =   ak .p + (1 −  a)−1.b. Note que  xo   =   p + (1 −  a)−1.b, donde

 p =  xo − (1 − a)−1.b e, por substituicao, vem:

xk  = ak .xo − ak (1 − a)−1.b + (1 − a)−1b =  ak xo + 1 − ak 

1 − a  · b,

reobtendo o resultado do Exemplo 22.3.

22.A. Sistemas Lineares

Generalizando o Exemplo 22.2, podemos considerar, num espaco ve-torial  E, um operador linear A :  E → E e procurar uma sequencia de

vetores vk  ∈ E  tais que

 vk +1  = A.vk    (k  = 0, 1, 2, . . .).

Isto se chama um sistema linear homog eneo de primeira ordem,

de equacoes a diferencas finitas com coeficientes constantes.

Evidentemente, dado arbitrariamente um vetor inicial   vo ∈   E,

existe uma  unica sequencia   ( vo, v1, . . . , vk , . . .)   de vetores em  E, co-

mecando com vo  e cumprindo a condicao vk +1  = Avk  para todo k  ≥ 0.

Basta tomar vk  = Ak .vo.

O problema pratico de resolver o sistema   vk +1   =   Avk   reduz-se

portanto ao calculo das potencias sucessivas Ak  do operador A. Em

geral, isto nao   e uma tarefa simples. Ha, entretanto, casos par-

ticulares em que ela  e factıvel. Por exemplo, se existir uma base

 U ⊂  E formada por autovetores de  A  (o que se da quando dim  E  = n

e o polinomio caracterıstico de   A   tem   n   raızes reais distintas, ou

entao quando  A  e auto-adjunto), o vetor inicial  vo  exprime-se comocombinacao linear

 vo  = x1 u 1 + · · · + xn u n

Page 313: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 313/358

302   Equacoes a Diferencas Finitas Secao 22

de vetores u i ∈ U , com Au i  = λi u i   (i =  1, 2, . . . , n). Segue-se que

Ak .vo  = x1λk 1 u 1 +

· · ·+ xnλk 

n u n   (k  =  0, 1, . . .).

Exemplo 22.5.   Seja   A :  R2 →   R2 o operador linear definido por

A(x, y) = (2x + 2y, 2x − y). O sistema de equacoes a diferencas fi-

nitas vk +1  = Avk , com vk  = (xk , yk ), escreve-se explicitamente como

xk +1  = 2xk  + 2yk 

 yk +1  = 2xk  −  yk .

O polinomio caracterıstico do operador  A  e  p(λ) =  λ2

− λ  −  6, cujasraızes sao 3 e  −2. Para obter uma base de autovetores  { u, v} ⊂  R2,

com   u   = (α, β)   e   v   = ( γ, δ), escrevemos as igualdades   Au   =   3u ,

Av = −2v em termos de coordenadas, obtendo os sistemas

2α + 2β =  3α 

2α − β = 3β

2γ + 2δ = −2γ

2γ − δ = −2δ

Estes sistemas sao indeterminados. Tem que ser indeterminados

pois os numeros 3  e  −2 foram obtidos de forma que fosse assim.

Tomemos as solucoes α  =  2, β  =  1, logo u  = (2, 1), e  γ  =  1, δ  = −2,

logo v  = (1, −2). Entao, para todo k  =  0, 1, 2, 3, . . . temos

Ak .u  =  3k .u  = (3k .2,3k )

e

Ak .v = (−2)k .v =

(−2)k , (−2)k +1

.

Para obter, digamos, a solucao do sistema   vk +1   =   Avk   cujo vetor

inicial   e   vo   = (xo, yo), com   xo   =   1,   yo   =   1, exprimimos o vetor

 vo   = (1, 1)  como combinacao linear dos vetores basicos   u   = (2, 1)

e v  = (1, −2), obtendo

 vo  = 3

5 u −

 1

5 v.

 A solucao procurada e, portanto:

 vk  = Ak .vo  =  3

5Ak  u −

 1

5Ak  v =

  3k +1

5  u −

 (−2)k 

5  v.

Page 314: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 314/358

Secao 22 Equacoes a Diferencas Finitas   303

Em termos das coordenadas vk  = (xk , yk ), temos

xk  =

  2

5 [3k +1

+ (−2)k −1

 ]   e   yk  =

  1

5 [3k +1

− (−2)k +1

 ].

No caso em que dim  E =  2, o problema de calcular efetivamente a

solucao do sistema  vk +1  = Avk  pode ser resolvido em todos os casos,

como mostraremos agora.

Tendo visto o caso em que o espaco E  possui uma base de autove-

tores do operador  A :  E

→E, vamos agora (supondo sempre dim  E=2)

examinar os casos em que tal base nao existe. Ha duas possibilida-

des, que sao as seguintes:

Primeira.   O polinomio caracterıstico de   A   possui uma raiz real

dupla  λ, mas   A =   λI. (Evidentemente, quando   A   =   λI  todo vetor

nao-nulo em E  e autovetor de A, logo este caso ja foi visto.)

Segunda.  O polinomio caracterıstico de A  possui raızes complexas

λ + iµ  e  λ − iµ  (com i  =√ 

−1 e  µ  = 0).

Consideremos o primeiro destes dois casos.

Existe um vetor nao-nulo  u  ∈   E   tal que  Au   =   λu . Alem disso,somente os multiplos de u  podem ser autovetores de  A. (Com efeito,

sendo   λ   o  unico autovalor de   A, se existisse um autovetor   v   nao

multiplo de  u , terıamos uma base  { u, v} ⊂ E com  Au  =  λu , Av  =  λv,

donde A  =  λI.)

Tomemos um vetor   v   tal que   { u, v} ⊂   E   seja uma base. Entao

Av   =   αu  +  βv   com   α  =   0   pois   v   nao  e autovetor. Se f or   α  =   1,

substituımos  v  por  w   =   α −1 v  e obtemos uma nova base   { u, w} ⊂   E

tal que   Au   =   λu ,   Aw   =   u  + γw. Na base   { u, w},  A  tem a matriztriangular

λ 1

0 γ

,

cujos autovalores sao λ, γ. Segue-se que γ  =  λ. Assim, temosAu  =  λu 

Aw =  u + λw(*)

e a matriz de  A  na base { u, w}  e m  =

λ 1

0 λ

.

Page 315: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 315/358

304   Equacoes a Diferencas Finitas Secao 22

Das igualdades (*) resulta que para  k  =  0, 1, 2, . . ., tem-se

Ak  u  =  λk  u 

Ak  w =  kλk −1 u + λk  w,

logo

mk  =

λk  kλk −1

0 λk 

  .

Exemplo 22.6.   O operador  A :  R2

→  R

2, dado por  A(x, y) = (3x −

 y, x + y), tem o polinomio caracterıstico

 p(λ) = λ2 − 4λ + 4,

o qual admite a raiz dupla  λ=2, sendo  u =(1, 1)  um autovetor de  A.

Portanto   { u, e2} ⊂   R2 e uma base, com  Au   =   2u  e  Ae2   = (−1, 1) =

−1· u +2·e2. Tomando w  = −e2  = (0, −1), obtemos a base { u, w} ⊂ R2,

com Au  =  2u  e  Aw  =  u + 2w, logo a matriz de A  na base { u, w}  e

m =2 1

0 2

.

Pelo que foi dito acima, para obter a solucao vk  = (xk , yk ) = Ak .vo do

sistema

xk +1  = 3xk  −  yk ,

 yk +1  = xk  +  yk ,

com vetor inicial  vo  = (3, 5), primeiro exprimimos vo  como combina-

cao linear de u  e w, obtendo vo  = 3u − 2w. Daı resulta que, para todo

k  =  0, 1, 2, . . ., tem-se

 vk  = 3.Ak  u − 2.Ak  w.

Como vimos acima, Ak  u  =  2k  u  e  Ak  w =  k2k −1 u + 2k  w. Logo

 vk  = 2k [(3 − k ) u − 2w ] = 2k (3 − k, 5 − k ).

Em termos das coordenadas, isto significa que

xk  = 2k (3 − k )   e   yk  = 2k (5 − k ).

Page 316: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 316/358

Secao 22 Equacoes a Diferencas Finitas   305

Para completar o estudo de sistemas lineares de equacoes a dife-

rencas finitas no caso  2 × 2, trataremos agora o caso de um operador

linear   A :  E →   E, (com dim  E   =   2) cujas raızes caracterısticas saonumeros complexos λ + iµ ,λ − iµ , com µ  = 0.

Sera conveniente considerar o complexificado de E, que e o espaco

vetorial complexo Ec, de dimensao (complexa) 2, cujos elementos tem

a forma u + iv, onde u, v ∈ E. As operacoes em Ec  sao dadas por

( u + iv) + ( u ′ + iv′) = ( u + u ′) + i( v + v′)

e

(α + iβ)( u + iv) = (αu − βv) + i(αv + βµ ).

Tem-se  E⊂Ec  de modo natural, pois  u = u +i.0. O operador A :  E→E

estende-se a um operador Ac :  Ec → Ec, chamado o complexificado de

A, pondo-se, por definicao,  Ac( u  +  iv) =   Au  +  iAv. Toda base de  E

e tambem uma base de  Ec, relativamente  a qual a matriz de  Ac  e a

mesma matriz de A. Em particular, os polinomios caracterısticos de

A  e  Ac  coincidem, logo  λ +  iµ  e  λ −  iµ  sao autovalores distintos do

operador C-linear Ac :  Ec → Ec. Para nossos efeitos, basta considerar

o autovalor λ + iµ .

Seja u + iv ∈ Ec  um autovetor de Ac  correspondente ao autovalor

λ + iµ . Entao  u, v ∈ E  sao vetores nao simultaneamente nulos, com

Ac( u + iv) = (λ + iµ )( u + iv), ou seja:

Au + iAv = (λu − µv) + i(µu + λv),

logo

Au  =  λu − µv   e   Av =  µu + λv.   (*)

 Afirmamos que os vetores  u, v ∈  E  sao linearmente independen-

tes. Em primeiro lugar,  u  e  v  sao ambos =  0  pois se um deles fosse

nulo o outro seria = 0 e, pelas equacoes (*), este seria um autovetor

do operador  A :  E → E. Em seguida, se  u  e  v  fossem L.D. terıamos

 v =  αu , logo Au  =  λu − µv = (λ − αµ ) u  e  u  seria um autovetor de  A.

Portanto,  { u, v} ⊂ E  e uma base, relativamente a qual a matriz do

operador  A :  E→ E tem a forma

a =

  λ µ 

−µ λ

.

Page 317: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 317/358

Page 318: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 318/358

Secao 22 Equacoes a Diferencas Finitas   307

onde

ρ =  λ2 + µ 2,   cos  θ =  λ/ρ,   sen  θ =  µ/ρ.

Depois de obtidos   λ,   µ , a base   { u, v}  se determina resolvendo o

sistema Au  =  λu − µv, Av  =  µu + λv, de 4 equacoes com 4 incognitas

que sao as coordenadas dos vetores  u  = (x, y) e  v  = (s, t). Em termos

dessas coordenadas, o sistema se escreve como

ax + by   =   λx − µs

cx + dy   =   λy − µt

as + bt   =   µx + λs

cs + dt   =   µy + λt

ou(a − λ)x   +by   +µs   = 0

cx   +(d − λ) y   +µt   = 0

−µx   +(a − λ)s   +bt   = 0

−µy   +cs   +(d − λ)t   = 0.

Exemplo 22.7.   Consideremos o sistema   xk +1   =   3xk  − yk ,   yk +1   =

2xk 

 + yk 

, com vetor inicial  vo

  = (1, 1). Ele nos fornece o operador

A :  R2 → R2, A(x, y) = (3x − y, 2x + y), cuja matriz na base canonica

e 3   −1

2 1

,

logo o polinomio caracterıstico  e  p(λ) =  λ2 − 4λ + 5, cujas raızes sao

2 ± i. Existe uma base  { u, v} ⊂  R2, com  u  = (x, y),  v  = (s, t), tal que

Au  = 2u − v, Av  =  u + 2v. Para obter esta base, devemos achar uma

solucao nao-nula do sistema

3x − y   =   2x − s

2x + y   =   2y − t

3s − t   =   x + 2s

2s + t   =   y + 2t

ou seja

x − y   +s   = 0

2x − y   +t   = 0−x   +s   −t   = 0

− y   +2s   −t   = 0.

Page 319: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 319/358

308   Equacoes a Diferencas Finitas Secao 22

Por escalonamento, encontramos  x  =  s − t,  y  =  2s − t, onde  s,  t  sao

arbitrarios. Tomamos  s   =   1,   t   =   0  e obtemos  x   =   1,   y   =   2. Logo

 u  = (1, 2) e v  = (1, 0) formam uma base de R

2

, relativamente a qualo operador A  tem a matriz

a =

 2 1

−1 2

.

O numero complexo 2 + i  tem modulo  ρ  =√ 

5. Um  angulo  θ  tal que

cos  θ   =   2/√ 

5  e  θ   =   26◦33 ′54 ′′  ou seja,  θ   =   0,463   rad. Entao, para

todo k  =  0, 1, 2 . . ., temos

ak  =

 2 1−1 2k 

= (√ 5)k 

  cos k θ   sen k θ− sen k θ   cos k θ

  .

 A solucao do sistema  vk +1   =   Avk  com vetor inicial  vo   = (1, 1)  e

dada por vk  = Ak .vo. Para obte-la explicitamente, devemos comecar

exprimindo vo  como combinacao linear dos vetores basicos u  = (1, 2)

e v  = (1, 0). Temos vo  =   12 u +   1

2 v. Portanto

 vk  = 1

2Ak  u +

 1

2Ak  v.

Ora, ak  e a matriz de  Ak  na base { u, v}. Logo

Ak  u  =  5k/2(cos k θ · u − sen k θ · v)

e

Ak  v =  5k/2(sen k θ · u + cos k θ · v).

Noutras palavras:

Ak  u  =  5k/2(cos k θ − sen k θ , 2 cos k θ)

e Ak  v =  5k/2(sen k θ + cos k θ , 2 sen k θ).

Portanto

 vk  =  1

2Ak  u +

 1

2Ak  v =  5k/2(cos k θ, cos k θ + sen k θ).

Concluımos entao que

xk  = 5k/2 cos k θ;

 yk  =

 5

k/2(cosk θ

+ senk θ

),

com θ  =  26◦33′54′′  = 0,463 rad, e a solucao do sistema xk +1  = 3xk − yk ,

 yk +1  = 2xk  +  yk  que cumpre xo  = 1, yo  = 1.

Page 320: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 320/358

Secao 22 Equacoes a Diferencas Finitas   309

22.B. Uma Aplicac ˜ ao do Teorema de Cayley-Hamilton

Uma forma alternativa de calcular as potencias sucessivas   Ak  do

operador linear   A :  E →   E   com dim  E   =   n, consiste em observarque, em consequencia do Teorema de Cayley-Hamilton, basta que se

considerem os expoentes k  ≤ n − 1. Com efeito, se

 pA(λ) = (−1)n λn + an−1λn−1 + · · · + a1λ + ao

e o polinomio caracterıstico do operador linear   A, segue-se de

 pA(A) = 0  que

An

= ±(an−1An−1

+ · · · + a1A + aoI).

Usaremos este fato para calcular as potencias Ak  de um operador

linear A :  E→ E, onde dim  E =  2. Neste caso, o grau do polinomio ca-

racterıstico pA(λ) sendo igual a 2, segue-se que o resto da divisao de

λk  por pA(λ), para todo k  ≥ 2, tem a forma αλ + β. (Por simplicidade,

escrevemos α , β  em vez de  α k , βk .) Podemos portanto escrever

λk  = pA(λ) · q(λ) + αλ + β,

donde

Ak  = pA(A) · q(A) + αA + βI.

Como pA(A) = 0, segue-se que Ak  = αA + βI.

Para encontrar   α   e   β, suponhamos inicialmente que as raızes

caracterısticas λ1 e λ2  sejam distintas. Por definicao, temos pA(λ1) =

 pA(λ2) = 0  logo da identidade  λk  = pA(λ) · q(λ) + αλ + β resultam as

igualdades:

αλ1 + β =  λk 1

αλ2 + β =  λk 2 .

Como estamos supondo  λ1 =  λ2, temos acima um sistema determi-

nado, que nos permite obter valores  unicos para   α   e   β. Observe

que este argumento vale, inclusive, quando as raızes caracterısticas

λ1   e   λ2   sao numeros complexos. Neste caso, usa-se a forma trigo-

nometrica para calcular as potencias  λk 1  e λk 

2  e ve-se que as solucoes

α , β  do sistema acima sao numeros reais.Consideremos agora o caso em que o polinomio caracterıstico

 pA(λ)  do operador linear  A  possui uma raiz (real) dupla  λ1. Entao

Page 321: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 321/358

Page 322: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 322/358

Secao 22 Equacoes a Diferencas Finitas   311

O fato de que  S  e um subespaco vetorial  e de verificacao imedi-

ata. (S   e o nucleo do operador linear   A :  R∞

→  R∞, definido por

Ax =  y, onde yk  = xk +2 + axk +1 + bxk .) Alem disso, o comentario feitono inıcio desta secao sobre a existencia e unicidade da solucao de

uma equacao de segunda ordem xk +2  = f(xk , xk +1), com valores inici-

ais  xo,  x1  pre-fixados, significa precisamente que a correspondencia

S→ R2, que associa a cada solucao x  = (xk ) da equacao (*) seus dois

primeiros termos  (xo, x1), nesta ordem,  e um isomorfismo entre  S  e

R2. Portanto o espaco vetorial  S  tem dimensao 2.

Este argumento mostra ainda que se   x   = (xk )   e   x′   = (x′k )   sao

duas solucoes da equacao xk +2 +  axk +1 +  bxk  =  0 tais que os vetores

(xo, x1)  e  (x′o, x′1)  sao linearmente independentes entao toda solucao

desta equacao se exprime, de modo  unico, como combinacao linear

αx + βx′. A segunda observacao  e que se  r  e uma raiz do polinomio carac-

terıstico  λ2 + aλ + b  =  0 entao a sequencia  r∗  = (1,r,r2, . . . , rk , . . .)  e

uma solucao da equacao xk +2 + axk +1 + bxk  = 0.

Com efeito, de r2 + ar + b =  0  segue-se que

rk +2 + ark +1 + brk  = rk (r2 + ar + b) = rk 

×0 =  0.

Resulta dessas duas observacoes que, para determinar todas as

solucoes da equacao  xk +2 +  axk +1 +  bxk  = 0, devemos usar as raızes

do seu polinomio caracterıstico a fim de obter duas solucoes linear-

mente independentes. Todas as demais solucoes serao combinacoes

lineares destas.

Ha 3 casos a considerar.

Primeiro caso.   O polinomio caracterıstico   λ2 + aλ  + b   tem duas

raızes reais distintas r, s.Entao as sequencias

r∗  = (1,r,r2, . . . , rk , . . .)   e   s∗  = (1,s,s2, . . . , sk , . . .)

sao solucoes e, como r = s, os vetores inicias (1, r) e  (1, s) sao L.I. em

R2, logo  r∗   e  s∗   sao linearmente independentes em  R

∞. A solucao

geral da equacao xk +2 + axk +1 + bxk  = 0  e, portanto,

xk  = αrk  + βsk ,

onde as constantes α  e  β  podem ser determinadas de modo que  xo  e

x1  tenham valores pre-fixados.

Page 323: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 323/358

312   Equacoes a Diferencas Finitas Secao 22

Exemplo 22.8.   A equacao  xk +2  − 3xk +1  + 2xk   =   0  tem o polinomio

caracterıstico  λ2 − 3λ  +  2, cujas raızes sao  r   =   1,  s   =   2. A solucao

geral desta equacao tem a forma  xk   =  α  +  2k 

.β. Se quisermos, porexemplo, a solucao com  xo   =  1  e  x1   =   0, temos que achar  α ,  β  tais

que α + β =  1  e  α + 2β =  0, o que nos da α  =  2, β  = −1, logo a solucao

procurada tem a forma xk  = 2 − 2k .

Segundo caso.  O polinomio caracterıstico λ2 + aλ + b tem uma raiz

real dupla r = 0.

Tem-se r  = −a/2, logo 2r +a =  0. Ja sabemos que uma solucao da

equacao xk +2 +axk +1 +bxk  = 0  e r∗  = (1 , r , . . . , rk , . . .). Afirmamos que

r∗∗   = (0,r,2r2

, . . . , k rk 

, . . .)  e outra solucao. Com efeito, se xk   =   krk 

entao

xk +2 + axk +1 + bxk  = (k + 2)rk +2 + a(k + 1)rk +1 + bkrk 

= rk [k (r2 + ar + b) + r(2r + a)] = 0.

 Alem disso, como os vetores (1, r) e (0, r) sao L.I. em R2, segue-se que

r∗ e  r∗∗ sao solucoes linearmente independentes, logo a solucao geral

da equacao dada tem a forma

xk  = αrk  + βkrk  = rk (α + βk ),

onde as constantes α e β podem ser determinadas de maneira a fazer

com que xo  e x1  assumam os valores iniciais pre-estabelecidos.

Exemplo 22.9.  Seja a equacao xk +2 − 6xk +1 + 9xk  = 0. Seu polinomio

caracterıstico tem a raiz dupla  r  = 3. A solucao geral desta equacao

e xk  = 3k (α + βk ). Se impusermos os valores iniciais xo  = −1, x1  = 1

obteremos  α   = −1,   β   =   4/3, logo a solucao que tem esses valores

iniciais  e xk  = 3k (−1 + 4k/3).

Exemplo 22.10.  Uma progressao aritmetica pode tambem ser con-

siderada como solucao de uma equacao a diferencas finitas de se-

gunda ordem, a saber, a equacao xk +2−xk +1  = xk +1−xk . Escrevendo-a

sob a forma  xk +2  − 2xk +1  + xk   =  0, vemos que seu polinomio carac-

terıstico possui a raiz dupla   r   =   1, logo sua solucao geral  e   xk   =

α  +  βk , ou seja,   e a progressao aritmetica de primeiro termo   α   e

razao β.

Terceiro caso.  As raızes do polinomio caracterıstico λ2 + aλ + b sao

os numeros complexos α ± iβ com  β = 0, i  =√ 

−1.

Page 324: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 324/358

Secao 22 Equacoes a Diferencas Finitas   313

Escrevemos o numero complexo   r   =   α  + iβ  sob a forma trigo-

nometrica   r   =   ρ(cos  θ  +  i sen  θ). Exatamente como no caso real,

verificamos que a sequencia de numeros complexos rk 

= ρk 

(cos k θ +i sen k θ), k  = 0, 1, 2, . . .,  e solucao da equacao dada. Mas  e  obvio que

se a, b sao numeros reais e a sequencia complexa (z o, z 1, . . . , z  k , . . .),

com z k  = xk  + iyk ,  e solucao da equacao z k +2 + az k +1 + bz k  = 0  entao

sua parte real xk  e sua parte imaginaria yk  cumprem xk +2 + axk +1 +

bxk  = 0  e  yk +2 + ayk +1 + byk  = 0  respectivamente.

Logo as sequencias  xk   =  ρk cos k θ  e  yk   =  ρk sen k θ  sao solucoes

da equacao dada. Alem disso, como  (xo, x1) = (1, ρ cos  θ),  ( yo, y1) =

(0, ρ sen  θ)   e sen  θ

 =   0   (pois o numero   r   nao   e real), vemos que

(xo, x1)   e   ( yo, y1)   formam uma base de   R2, logo as solucoes   xk    =

ρk cos k θ e  yk  = ρk sen k θ sao linearmente independentes.

Segue-se que a solucao geral da equacao  xk +2 +  axk +1 + bxk  = 0,

quando  a2 < 4b,  e dada por

xk  = ρk [α cos k θ + β sen k θ ],

onde as constantes  α ,  β  podem ser determinadas de modo que  xo  e

x1  assumam valores arbitrariamente pre-fixados.

Exemplo 22.11. O polinomio caracterıstico da equacao xk +2−2xk +1+

 4xk    =   0   tem as raızes complexas   1 ±   i√ 

3. Escrevendo   1  +   i√ 

3

sob forma trigonometrica, temos,  1 +  i√ 

3   =   2(cos 60◦  + i sen 60◦) =

2

cos  π 3  + i sen  π 

3

. A solucao geral da equacao dada e

xk  = 2k 

α cos

 kπ 

3  + β sen

 kπ 

3

.

Se quisermos, por exemplo, obter a solucao tal que xo

 = 5, x1

 = 7, os

numeros α , β  devem satisfazer as condicoes α  =  5, β  =  2√ 3/3.

Como se ve, a discussao direta das equacoes de segunda ordem

(lineares homog eneas, com coeficientes constantes) e bem mais sim-

ples do que o estudo dos sistemas dos quais elas sao casos particula-

res.

22.D. Equac ˜ oes com Segundo Membro Constante

 As equacoes de que vamos tratar sao as do tipo

xk +2 + axk +1 + bxk  = c.

Page 325: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 325/358

314   Equacoes a Diferencas Finitas Secao 22

Como se sabe, a solucao geral desta equacao  e a soma de uma

solucao particular, que obtenhamos por qualquer processo, com a so-

lucao geral da equacao homog enea  xk +2 + axk +1 + bxk  =  0. Como jaaprendemos a determinar esta  ultima, basta-nos explicar como se

pode conseguir uma solucao particular.

Comecamos tentando uma solucao constante  xk   =   d. Devemos

ter d + ad + bd =  c, ou seja (1 + a + b)d =  c. Portanto, se 1 + a + b = 0,

a  unica solucao constante possıvel para a equacao dada  e  xk   =  d  =

(1 + a + b)−1.c.

Se 1 + a + b =  0, a equacao dada (com c = 0) nao pode ter solucao

constante. Tentamos uma solucao do tipo xk  = k.d. Substituindo, na

equacao dada, xk  por kd  vem

(k + 2)d + a(k + 1)d + bkd =  c

ou

(1 + a + b)kd + (a + 2)d =  c.

Como 1+a+b =  0, obtemos (a+2)d =  c. Portanto, quando 1+a+b =  0

e a = −2, a sequencia xk  = kc.(a + 2)−1 e uma solucao particular.

Finalmente, se 1+a+b =  0 e a = −2 entao b =  1 e a equacao dadase torna  xk +2  − 2xk +1  + xk   =  c, a qual nao possui solucao constante

nem do tipo  xk   =   k.d. Tentemos uma solucao da forma  xk   =   k 2.d.

Substituindo  xk  por este valor na equacao, obtemos

(k 2 + 4k + 4)d − 2(k 2 + 2k + 1)d + k 2d = c,

ou seja,  2d   =   c, donde  d   =   c/2. Uma verificacao imediata mostra

que, realmente,   xk   =   k 2 c/2   e uma solucao particular da equacao

xk +2

 − 2xk +1

 + xk 

 = c.

Observac ˜ ao.   No inıcio desta secao, vimos que a equacao de se-

gunda ordem xk +2 + axk +1 + bxk  = 0  pode ser resolvida considerando-

se o sistema

xk +1  = yk 

 yk +1  = −bxk  − ayk .

Mostraremos agora que, reciprocamente, se quisermos resolver o

sistemaxk +1  = axk  + byk 

 yk +1  = cxk  + dyk 

(*)

Page 326: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 326/358

Secao 22 Equacoes a Diferencas Finitas   315

com vetor inicial  v0   = (x0, y0), podemos reduzi-lo a uma equacao de

segunda ordem, resolver essa equacao pelo metodo que acabamos de

expor e, a partir daı, obter a solucao do sistema.Evidentemente, um dos numeros   a,b,c,d   e diferente de zero.

Para fixar ideias, suporemos que b = 0. Se (xk ) e  ( yk ) sao as solucoes

do sistema (∗) entao

xk +2  = axk +1 + byk +1

= axk +1 + bcxk  + bdyk 

= axk +1 + bcxk  + dxk +1 − adxk ,

logo,xk +2 − (a + d)xk +1 + (ad − bc)xk  = 0.   (**)

Para resolver o sistema (∗) com vetor inicial  v0   = (x0, y0), toma-

mos a solucao  (xk )  da equacao (∗∗) com os valores iniciais  x0   (dado)

e  x1   =   ax0  + by0   (com  y0   tambem dado). Em seguida, definimos a

sequencia   ( yk )   pondo  yk   = (xk +1  − axk )/b. Isto da imediatamente

xk +1   =  axk  + byk . Alem disso, o valor  y0  obtido nesta f ormula coin-

cide com o valor inicial y0  anteriormente estipulado. Tem-se ainda

 yk +1  =  1

b[xk +2 − axk +1 ]

=  1

b[(a + d)xk +1 + (bc − ad)xk  − axk +1 ]

=  1

b[(a + d)(axk  + byk ) + (bc − ad)xk  − axk +1 ].

Simplificando, vem yk +1   =  cxk  + dyk , logo as sequencias  (xk )  e  ( yk )

formam a solucao procurada do sistema (∗).

Exercıcios

22.1.   Para cada uma das equacoes abaixo, determine a solucao que

tem o valor inicial indicado

(a)   xk +1  = xk  − 7, xo  = 0.

(b)   xk +1  = 6xk , xo  = 1.

Page 327: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 327/358

Page 328: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 328/358

Secao 22 Equacoes a Diferencas Finitas   317

22.6.   Sejam  λ  e  µ  as raızes caracterısticas (reais ou complexas) do

operador   A :  R2

→  R

2. Suponha que   |λ|   < 1   e   |µ |   < 1. Seja qual

for o valor inicial  vo   = (xo, yo), prove que a solucao  vk   = (xk , yk )  dosistema vk +1  = Avk  cumpre lim  xk  = 0, lim  yk  = 0.

22.7.   Sejam   r   = (xo, . . . , xk , . . .)   e   s   = ( yo, . . . , yk , . . .)   solucoes da

equacao z k +2 + az k +1 + bz k  = 0. Assinale V(erdadeiro) ou F(also):

( ) Se r  e  s  sao L.I. entao, para quaisquer ındices k  = ℓ, os vetores

 u  = (xk , xℓ) e  v  = ( yk , yℓ) sao L.I.

( ) Se existirem k 

 = ℓ tais que os vetores  u  = (xk , xℓ) e  v  = ( yk , yℓ)

sao L.I. entao as solucoes r  e  s  sao L.I.

( ) Se, para todo  k  ≥   0, os vetores  u   = (xk , xk +1)  e  v   = ( yk , yk +1)

forem L.D. entao r  e  s  sao L.D.

( ) Se r  e  s  sao L.D. entao u  = (xk , xℓ) e  v  = ( yk , yℓ) sao L.D., sejam

quais forem k  e  ℓ.

22.8.   Sejam   r=(xo, . . . , xk , . . .),   s=( yo, . . . , yk , . . .),   t=(z o, . . . , z  k , . . .)solucoes da equacao wk +3 + awk +2 + bwk +1 + ck  wk  = 0. Prove:

(a) Se existirem   k < ℓ < m    tais que os vetores   v   = (xk , xℓ, xm ),

 v′   = ( yk , yℓ, ym )  e  v′′   = (z k , z ℓ, z m )  sao L.I. entao as sequencias

r, s  e  t  sao L.I. .

(b) Se r, s  e  t  sao L.I. entao existe k  ≥ 0  tal que os vetores

 v=(xk , xk +1, xk +2), v′=( yk , yk +1, yk +2)   e   v′′=(z k , z k +1, z k +2)

sao L.I. .

22.9.   Prove que as sequencias  r   = (1 , 2 , 3 , 4 , 0 , 0 , . . .),   s   = (1,2,3,1,

0 , 0 , . . .)   e   t   = (1 , 0 , 0 , 3 , 0 , 0 , . . .)   nao podem ser solucoes da mesma

equacao xk +3+axk +2+bxk +1+cxk  = 0. [Sugestao: item (b) do exercıcio

anterior.]

22.10. Seja E :  R∞ → R∞ o operador linear definido por

E(xo, x1, . . . , xk , . . .) = (x1, x2, . . . , xk +1, . . .).

Page 329: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 329/358

318   Equacoes a Diferencas Finitas Secao 22

Prove que um subespaco vetorial  S ⊂  R∞ e o conjunto das solucoes

de uma equacao linear homog enea de ordem n com coeficientes cons-

tantes, xk +n + a1xk +n−1 + · · · + anxk  = 0,

se, e somente se, cumpre as condicoes seguintes:

(1) S  e invariante por E;

(2)   S tem dimensao finita, igual a  n.

22.11.   O metodo apresentado em 22.B para calcular as potencias

Ak  mediante o uso do Teorema de Cayley-Hamilton da f ormulas

explıcitas para essas potencias como combinacoes lineares deI , A , . . . , An−1, mas faz uso das raızes caracterısticas do operador  A,

que sao facilmente calculaveis em dimensao 2 porem dif ıceis de ob-

ter em dimensoes superiores. Caso se deseje, nao a f  ormula geral

para   Ak , mas apenas o calculo explıcito de uma dessas potencias,

como A10 por exemplo, a alternativa seguinte utiliza apenas o calcu-

lo do polinomio caracterıstico pA(λ), o que e bem mais factıvel: Usa-

se o algoritmo da divisao para escrever λk  = pA(λ) · q(λ) + r(λ), onde

o grau do resto r(λ)  e menor do que a dimensao do espaco E. Tem-seentao  Ak  =  r(A). Usando este metodo, mostre que, dado o operador

A :  R3 → R3, onde A(x,y,z ) = (x+2y+3z,3x+ y+2z,x− y+z ), tem-se

A5 = 40A2 + 19A − 143 · I e  A10 = 14281 · A2 + 2246 · A − 49071 · I.

22.12. Para cada uma das equacoes abaixo, determine a solucao que

tem os valores iniciais indicados.

(a)   xk +2  = xk +1 + 20xk , xo  = −3, x1  = 2.

(b)   15 xk +2  = 2xk +1 − 5xk , xo  = 2, x1  = −1.

(c)   xk +2 − 6xk +1 + 25xk  = 0, xo  = 1, x2  = 3.

22.13.   A  seq¨ uˆ encia de Fibonacci  (xo, x1, . . . , xk , . . .)  e definida pelas

condicoes xo  = 0, x1  = 1  e  xk +2  = xk +1 +  xk . Obtenha a f ormula geral

para xk  em funcao de k , prove que xk +2  = 1 + x1 + · · · + xk  e que

limk →∞

xk +1xk 

=   1 + √ 52

  (o n ´ umero de ouro).

Page 330: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 330/358

Secao 22 Equacoes a Diferencas Finitas   319

22.14.   Qual a f ormula que exprime   xk   em funcao de   xo,   x1   e   k ,

sabendo-se que

xk +2  =  12

(xk +1 + xk )

para todo k  ≥ 0 ?

22.15. Resolva a equacao xk +3 − 6xk +2 + 11xk +1 − 6xk  = 0.

22.16. Ache a solucao vk  = (xk , yk ) do sistema

xk +1  = xk  − α (xk  −  yk )

 yk +1  = yk  + β(xk  −  yk ),

com vetor inicial  vo   = (xo, yo), com  yo   < xo,  0 < α < 1  e  0 < β < 1.

Mostre que lim  xk   =   lim  yk   = (βxo + αyo)/(α  +  β), logo este limite

esta mais proximo de xo do que de yo se, e somente se, α < β. Mostre

que se tem  xk  < yk  para todo  k  se, e somente se,  α  + β < 1, em cujo

caso a sequencia (xk 

)  e decrescente e ( yk 

)  e crescente.

[Observac ˜ ao:   este sistema  e um modelo para uma situacao sim-

ples de barganha. Cada  xk  e o preco do vendedor e  yk  e a proposta

do comprador. Em cada etapa, o vendedor oferece um desconto pro-

porcional  a diferenca de precos na etapa anterior e o comprador, por

sua vez, aumenta sua proposta de modo analogo. Se a soma  α  +  β,

da constante do vendedor com a do comprador, for maior do que 1,

 ja na primeira etapa tem-se x1  < y1, o que daria o chamado “neg ocio

de pai para filho”...]

22.17.   Seja xk +2 + axk +1 + bxk  =  0  uma equacao cujas raızes carac-

terısticas sao os complexos conjugados  r  e  r. Escreva r  =  ρ(cos  θ +

i sen  θ) como xk  = αρk  cos(β + kθ), onde as constantes  α  e β  podem

ser determinadas de modo a fazer com que  xo  e  x1  assumam os va-

lores iniciais pre-estabelecidos. [Sugestao: a equacao dada admite a

solucao geral complexa xk  = ζrk  + ηrk , onde ζ, η ∈ C sao arbitrarios.

Tomando  η   =   ζ, obtem-se a solucao real  xk   =   2 Re  (ζrk ). Escrevaζ   =   α 

2 (cos  β +  i  sen  β)  e use a f ormula cos(x +  y) =   cos  x · cos  y −

sen  x · sen  y.]

Page 331: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 331/358

320   Equacoes a Diferencas Finitas Secao 22

22.18.   Dada a equacao  xk +2  + axk +1  + bxk   =   ck , onde  c  nao  e raiz

caracterıstica, prove que existe  M ∈   R   tal que  xk   =   M · ck  e uma

solucao particular. Se c  e uma raiz caracterıstica diferente de  −a/2,prove que existe N  tal que xk  = Nkck  e uma solucao particular. E se

c  = −a/2  e raiz caracterıstica prove que existe  P  tal que  xk   =  Pk 2ck 

e uma solucao particular.

22.19.   Se  vk +1   =   αvk  + wk , onde   |α |   < 1  e limk →∞

 wk   =   0, prove que

limk →∞

 vk  = 0

22.20.   Seja   A :  E

 →  E  um operador linear cujos autovalores cum-

prem   |λ1|   < 1, . . . , |λn|   < 1. Prove que, para todo   v  ∈   E, tem-selim

k →∞Ak  v   =   0. [Sugestao: Tome uma base   { u 1, . . . , u  n} ⊂   E  na qual

a matriz de  A  seja diagonal superior. Observe que  Au i   =  w +  λi u i,

onde   w ∈   S( u 1, . . . , u  i−1)   se   i > 1   e   Au 1   =   λ1 u 1. Logo   Ak +1 u i   =

Ak  w +  λi Ak  u i. Ponha vk   =  Ak  u i,  wk   =  Ak  w,  α  =  λi  e tenha  vk +1   =

αvk  +  wk . Use inducao em i e o exercıcio anterior para concluir que

limk →∞

Ak  u i  = 0   (i =  1, . . . , n), e daı limk →∞

Ak  v =  0  para todo v ∈ E.]

Page 332: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 332/358

ApendiceA Forma Canonica de Jordan

O objetivo deste apˆ endice ´  e provar que, dado um operador linear

A :  E →   E  num espaco vetorial complexo de dimens˜ ao finita, existe

uma base de   E   na qual a matriz   a   de   A   ´  e formada por uma s´  erie

de “blocos de Jordan” ao longo da diagonal. Um bloco de Jordan ´  e

uma matriz triangular inferior cujos elementos diagonais s˜ ao todos

iguais a um mesmo auto-valor de   A  e os elementos imediatamente

abaixo da diagonal s˜ ao iguais a 1. Diz-se ent˜ ao que a matriz  a  est´ a

na forma canonica de Jordan. Quando E  possui uma base formada

 por auto-vetores de A , os blocos de Jordan s ˜ ao todos 1

×1 , e neste caso

a forma canonica de Jordan para A  ´  e uma matriz diagonal. A forma canonica de Jordan exibe a matriz mais simples que

 se pode obter para o operador   A. Ela se mostra ´ util no estudo de

quest˜ oes que envolvem potˆ encias sucessivas do operador  A , como as

 equac˜ oes diferenciais lineares e as equac˜ oes a diferencas finitas line-

ares.

 A1. Operadores Nilpotentes

Nesta secao, estudaremos mais um tipo de operadores que podem

ser representados por matrizes especialmente simples, a saber, os

Page 333: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 333/358

322   A Forma Canonica de Jordan Apendice

operadores nilpotentes. Os espacos vetoriais aqui considerados po-

dem ser reais ou complexos; nao faz diferenca. Tampouco se ne-

cessita de um produto interno. Veremos que, mesmo no caso real,os operadores nilpotentes possuem matrizes triangulares. O estudo

aqui feito serve de preparacao para a secao seguinte.

Um operador linear   A :  E →   E   diz-se  nilpotente   quando se tem

Ak  =   0  para algum  k  ∈  N. O  ´ ındice  de um operador nilpotente  e o

menor numero  k  ∈  N  tal que  Ak  =   0. Isto significa que  Ak −1 =   0  e

Ak  = 0.

 Analogamente, uma matriz quadrada   a   chama-se   nilpotente

quando se tem  ak  =   0  para algum  k 

 ∈  N. Se  ak −1

=   0   e   ak  =   0,

diz-se que a matriz nilpotente a  tem  ´ ındice k .

Exemplo A1.1.   O operador de derivacao  D : P n → P n  e nilpotente,

com ındice n + 1.

Exemplo A1.2.  Um exemplo simples de matriz nilpotente  e dado

pela matriz k × k  cuja k -esima coluna  e o vetor nulo e, para  1 ≤ j ≤k  − 1, sua  j-esima coluna  e  e j+1 ∈  Rk . Para k  =  4  essa matriz tem a

forma abaixo:

a =

0 0 0 01 0 0 0

0 1 0 0

0 0 1 0

.

 A matriz deste exemplo provem do operador  A :  Rk  →   Rk , definido

por Ae1  = e2, . . . , A ek −1  = ek , Aek  = 0. Evidentemente, tem-se Ak  =

0 e  Ak −1 = 0. Logo o ındice do operador A  (e da matriz a) e igual a k .

Teorema A1.1.   Dado o operador   A :  E →   E , seja   u 

 ∈  E   um vetor

tal que Ak −1 u  = 0 e  Ak  u  =  0. Ent˜ ao os vetores u, Au, . . . , Ak −1 u  s ˜ ao

linearmente independentes.

Demonstrac ˜ ao:  Seja

α 1 u + α 2Au + · · · + α k Ak −1 u  =  0.

 Aplicando o operador   Ak −1 a ambos os membros desta igualdade,

obtemos  α 1Ak −1 u   =   0. Como   Ak −1 u 

 =   0, concluımos que   α 1   =   0.

Logo a combinacao linear inicial se reduz a

α 2Au + · · · + α k Ak −1 u  =  0.

Page 334: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 334/358

Apendice A Forma Canonica de Jordan   323

 Aplicando o operador Ak −2, obtemos agora α 2Ak −1 u  =  0, logo α 2  = 0.

Prosseguindo analogamente, tem-se α 1  = α 2  = · · · =  α k  = 0.  

Corolario 1.   Num espaco vetorial de dimens˜ ao  n , o ´ ındice de umoperador nilpotente ´  e ≤ n.

Corolario 2.   Seja   A :  E →   E  um operador nilpotente de ´ ındice   n

num espaco vetorial E , de dimens ˜ ao n. Existe uma base de  E  na qual

a matriz de A  tem a forma abaixo:

0 0 0   · · ·   0 0

1 0 0   · · ·   0 0

0 1 0   · · ·   0 0...

  ...  ...   · · ·   ...

  ...

0 0 0   · · ·   1 0

 Vale, evidentemente, a recıproca do Corolario 2 acima: se alguma

matriz do operador  A :  E → E   (onde dim  E  =  n) tem a forma acima

entao A  e um operador nilpotente de ındice n.

Se o  ındice do operador nilpotente  A :  E

→E  for menor do que a

dimensao do espaco E, mostraremos a seguir que existe uma base deE na qual a matriz de A  e formada por blocos do tipo acima, dispostos

ao longo da diagonal.

 A ideia da demonstracao e extremamente simples, mas a notacao

pode tornar-se longa. A fim de evitar complicacoes tipograficas, tra-

taremos os casos de  ındices mais baixos, deixando claro o processo

indutivo que leva ao caso geral.

O argumento se baseia no seguinte fato, que foi estabelecido na

demonstracao do Teorema do Nucleo e da Imagem, e que destacare-

mos aqui como um lema:

Lema.   Se   {Au 1, . . . , A u   p}   ´  e uma base da imagem do operador

A :  E → E  e  { v1, . . . , vq}   ´  e uma base do n ´ ucleo de  A  ent˜ ao  { u 1, . . . , u   p,

 v1, . . . , vq}  ´  e uma base de E.

Seja inicialmente o operador nilpotente  A :  E →   E, de  ındice 2:

A = 0  e  A2 = 0.

Tomemos uma base  {Au 1, . . . , A u   p} da imagem de  A. A condicao

A2 =  0  significa que I m (A) ⊂ N (A), logo existem vetores  v1, . . . , vq

tais que

 U   = {Au 1, . . . , A u   p, v1, . . . , vq}

Page 335: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 335/358

324   A Forma Canonica de Jordan Apendice

e uma base de N (A). Pelo Lema, o conjunto

V  = { u 1, Au 1, . . . , u   p, Au  p, v1, . . . , vq}

e uma base de  E.

Em relacao a esta base  V , a matriz do operador nilpotente

A :  E →   E, de   ındice 2,   e formada por   p   blocos de matrizes   2 × 2

do tipo 0 0

1 0

ao longo da diagonal (onde  p  e o posto de  A), seguidos de  q  colunas

nulas, onde 2p + q = dim  E.Por exemplo, se A :  R5 → R

5 e nilpotente de ındice 2, sua matriz

na base V   tem uma das formas abaixo, conforme seu posto seja   2

ou 1:

0 0 0 0 0

1 0 0 0 0

0 0 0 0 0

0 0 1 0 0

0 0 0 0 0

0 0 0 0 0

1 0 0 0 0

0 0 0 0 0

0 0 0 0 0

0 0 0 0 0

Em seguida, consideremos um operador nilpotente  A :  E → E  de

ındice 3.

 A restricao de  A  ao subespaco invariante I m (A)  e um operador

nilpotente de  ındice 2. Lembrando que os elementos de I m (A)  sao

todos da forma Au , resulta do que vimos acima que existe uma base

de I m (A) do tipo

 {Au 1

, A2 u 1

, . . . , A u   p

, A2 u  p

, Av1

, . . . , A vq

},

com  A2 v1   = · · ·   =  A2 vq   =  0.  Os vetores linearmente independentes

A2 u 1, . . . , A2 u  p, Av1, . . . , A vq  pertencem ao nucleo de  A, logo podem

ser incluıdos numa base:

 U   = {A2 u 1, . . . , A2 u  p, Av1, . . . , A vq, w1, . . . , wr} ⊂ N (A).

Segue do Lema que o conjunto

V  =  { u 1, Au 1, A2 u 1, . . . ,

 u  p, Au  p, A2 u  p, v1, Av1, . . . , vq, Avq, w1, . . . , wr}

Page 336: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 336/358

Apendice A Forma Canonica de Jordan   325

e uma base de  E.

Em relacao a esta base  V , a matriz do operador nilpotente

A :  E →   E, de   ındice 3,   e formada por   p   blocos de matrizes   3 × 3da forma 0 0 0

1 0 0

0 1 0

ao longo da diagonal, seguidos por q blocos de matrizes 2×2 da forma

0 0

1 0 ,

ainda ao longo da diagonal, e por  r   colunas de zeros. (Aqui,   p  e o

posto de A2,   2p + q  e o posto de A  e p + q + r  e a dimensao de N (A).)

Eventualmente, pode-se ter  q   =   0  ou  r   =  0   (ou ambos). Mas as

tres primeiras colunas do operador nilpotente A, de ındice 3, na base

V , devem ser e2, e3  e 0.

 A discussao acima assegura, para um operador nilpotente

A :  R5

→   R5 de  ındice 3, uma base

 V   na qual sua matriz tem uma

das formas seguintes

0 0 0 0 0

1 0 0 0 0

0 1 0 0 0

0 0 0 0 0

0 0 0 1 0

ou

0 0 0 0 0

1 0 0 0 0

0 1 0 0 0

0 0 0 0 0

0 0 0 0 0

,

conforme o posto de A  seja 3 ou 2.

O caso geral se trata da mesma maneira. A fim de dar maisprecisao e clareza ao seu enunciado, vamos introduzir uma definicao.

Dado um operador nilpotente   A :   E →   E, dizemos que um su-

bespaco vetorial  F ⊂  E  e  c´ ıclico  (em relacao a  A) quando existe um

vetor   u  ∈   F   tal que   Am  u   =   0   e   { u, Au, . . . , Am −1 u }   e uma base de

F. Isto significa que   F ⊂   E   e um subespaco vetorial de dimensao

m , invariante por   A, e que a restricao de   A   ao subespaco   F   e um

operador nilpotente de ındice m .

Por exemplo, na base V , acima obtida quando analisamos umoperador nilpotente de ındice 3, cada um dos vetores  u 1, . . . , u   p  gera

um subespaco cıclico de dimensao 3, cada  v j( j   =   1, . . . , q)  gera um

Page 337: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 337/358

326   A Forma Canonica de Jordan Apendice

subespaco cıclico de dimensao 2 e cada   wℓ(ℓ   =   1 , . . . , r)   gera um

subespaco cıclico de dimensao 1 (o que significa Aw1= · · · =Awℓ=0).

O resultado fundamental sobre operadores nilpotentes e oTeorema A1.2.   Seja  A :  E → E  um operador nilpotente de ´ ındice k 

num espaco vetorial de dimens˜ ao n. Existem inteiros k 1  =  k  ≥ k 2 ≥· · · ≥  k r  > 0 , tais que E  =  F1 ⊕ · · · ⊕ Fr , onde cada Fi   ´  e um subespaco

c´ ıclico de dimens˜ ao k i .

Evidentemente, k 1 + · · · + k r  = n.

Tomando em cada   Fi   (i   =   1, . . . , r)   uma base V i   =   { u i, Au i, . . . ,

Ak i−1 u i}, obtemos uma base

 V   =

 V 1

 ∪ . . .

 ∪ V r , em relacao  a qual

a matriz de  A  e formada por  r  blocos  ai ∈   M(k i × k i), ao longo dadiagonal. Cada bloco ai  tem a forma vista no Exemplo 2: para  j < k isua j-esima coluna e e j+1 ∈ R

k i enquanto sua k i-esima coluna e zero.

 A2. Exist ˆ encia da Forma Can ˆ onica de Jordan.

Dado um operador linear  A :  E

 →  E  num espaco vetorial complexo

de dimensao finita, provaremos que existe uma base em  E  na qual a

matriz de  A  tem a forma canonica de Jordan:   e triangular inferior,os auto-valores que formam sua diagonal sao repetidos consecutiva-

mente de acordo com suas multiplicidades alg ebricas e, alem disso,

os elementos imediatamente abaixo da diagonal sao iguais a 0 ou 1;

todos os demais elementos sao nulos.

Teorema A2.1.  Seja A :  E→ E um operador linear num espaco veto-

rial (real ou complexo) de dimens˜ ao finita. Existe uma decomposic ˜ ao

E = F

⊕G , como soma direta de subespacos invariantes F , G  tais que

A  ´  e nilpotente em F  e invert´ ıvel em G.

Demonstrac ˜ ao:  Como a dimensao de E  e finita, a sequencia de su-

bespacos invariantes

E ⊃ I m (A) ⊃ I m (A2) ⊃ . . .

nao pode ser estritamente decrescente para sempre. Seja entao  k  o

menor numero natural tal que

 I m (Ak ) =

 I m (Ak +1). Afirmamos que

entao I m (Ak +1) = I m (Ak +2). Com efeito,

 I m (Ak +2) = A[ I m (Ak +1)] = A[ I m (Ak )] = I m (Ak +1).

Page 338: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 338/358

Apendice A Forma Canonica de Jordan   327

Segue-se que I m (Ak +2) = I m (Ak +3), etc. Note-se que vale

 N (A)

⊂ N (A2)

 ⊂ · · · ⊂ N (Ak ) =

 N (Ak +1) =

 N (Ak +2) =

· · ·  .

Com efeito, pelo Teorema do Nucleo e da Imagem, temos

dim N (Ak +1) = dim  E − dim I m (Ak +1)

= dim  E − dim I m (Ak ) = dim N (Ak ).

Sejam F  = N (Ak ) e G  = I m (Ak ). Evidentemente, F e G sao invarian-

tes por A  e a restricao A :  F

→F  e nilpotente. Alem disso, a restricao

A: G→ G  e um operador sobrejetivo pois

A(G) = A[ I m (Ak )] = I m (Ak +1) = I m (Ak ) = G.

Logo A :  G → G  e invertıvel. Mostremos agora que  E  =  F + G. Dado

 v ∈   E, como I m (Ak ) = I m (A2k ), existe  x ∈   E   tal que  Ak  v   =   A2k x.

Entao, se escrevermos

 v = ( v − Ak x) + Ak x,

veremos que   Ak ( v  −  Ak x) =   Ak  v  −  A2k x   =   0, logo   v  −  Ak x ∈   F   e,obviamente,   Ak x ∈   G. Assim, todo elemento  v ∈   E  e soma de um

vetor de F com um vetor de G, ou seja, E  = F + G. Para concluir que

E =  F ⊕ G, resta apenas mostrar que F ∩ G =  {0}. Ora, sabemos que

dim  F + dim  G =  dim(F + G) + dim(F ∩ G)

= dim  E + dim(F ∩ G).

Por outro lado, o Teorema do Nucleo e da Imagem, aplicado ao ope-

rador Ak :  E→ E, nos da dim  E =  dim  F + dim  G. Segue-se entao que

dim(F ∩ G) = 0, isto e, F ∩ G =  {0}.  

Teorema A2.2.   Seja  E   =   F ⊕ G  como no Teorema A2.1. Se  n0   ´  e a

multiplicidade alg´  ebrica do autovalor 0 do operador A :  E→ E ent ˜ ao

a dimens ˜ ao do subespaco F  ´  e igual a n0 . Al´  em disso, F  ´  e o n ´ ucleo e G  ´  e

a imagem de An0 :  E

→E. Segue-se da´ ı que a decomposic ˜ ao E  = F⊕G ,

com as propriedades enunciadas naquele teorema, ´  e ´ unica.

Demonstrac ˜ ao:   Sejam   A′ :   F →   F   e   A′′ :  G →   G   as restricoes dooperador  A  aos subespacos invariantes  F e G. Como A′  e nilpotente

e  A′′  e invertıvel, o polinomio caracterıstico de  A′  e  pA′(λ) = (−λ)n ,

Page 339: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 339/358

328   A Forma Canonica de Jordan Apendice

n =  dim  F, e o de A′′  cumpre a condicao pA′′(0) = 0. A prova do lema

que antecede o Teorema 20.1 nos da  pA   =  pA′ · pA′′ . Por outro lado,

 pA(λ) = λn0

· q(λ), com q(0) = 0. Assim, λn

· pA′′

(λ) = λn0

· q(λ), com pA′′(0) =  0 e  q(0) =  0. Segue-se que  n  =  n0 . Sendo A  nilpotente no

subespaco  F  de dimensao  n0 , tem-se  F ⊂ N (An0). Reciprocamente,

se  u  ∈ N (An0), escrevemos  u   =  v +  w, com  v ∈  F  (logo  An0 v   =  0) e

 w ∈ G. Entao 0  =  An0 v + An0 w =  An0 w. Sendo A  invertıvel em G, de

An0 w  =  0  conclui-se que  w  =  0, logo u  =  v ∈ F. Assim,  F  = N (An0).

Para provar que  G   = I m (An0), observamos primeiro que, sendo  A

invertıvel em  G, o operador  An0 :  G

→G  tambem  e invertıvel, logo

G

 ⊂ I m (An0). Por outro lado, para todo  u 

 ∈E, escrevendo u  =  v + w

com v ∈ F  e  w ∈ G, temos An0 u  =  An0 w ∈ G  (pois G  e invariante por

A) logo I m (An0) ⊂ G. Assim, I m (An0) = G.  

Observac ˜ ao.  Para uso na demonstracao do proximo teorema, note-

mos aqui que se E  = F1 + · · ·+ Fr e dim  E ≥ dim  F1 + · · ·+ dim  Fr entao

E   =   F1 ⊕ · · · ⊕ Fr . Com efeito, tomando em cada subespaco  Fi   uma

base V i   (i  = 1, . . . , r), o conjunto V   = V 1 ∪ . . . ∪ V r  gera  E  e o numero

de elementos de V   e ≤   dim  E, logo V   e uma base de  E. Assim, todo

vetor  v ∈ E se exprime, de modo  unico, como soma v  =  v1 + · · · + vr ,com v1 ∈ F1, . . . , vr ∈ Fr . Noutras palavras, E  = F1 ⊕ · · · ⊕ F1 .

Teorema A2.3.   Sejam   λ1, . . . , λr   os auto-valores distintos do ope-

rador  A :  E →   E , num espaco vetorial complexo de dimens˜ ao finita.

 Para cada   i   =   1, . . . , r , sejam  ni   a multiplicidade alg´  ebrica de  λi   e

Ei  = N [(A − λi I)ni ]. Ent˜ ao dim  Ei  = ni  e E  =  E1 ⊕ · · · ⊕ Er .

Demonstrac ˜ ao:  Mostremos inicialmente que ni  e tambem a multi-

plicidade alg ebrica do auto-valor 0 do operador  Ai   =  A −  λi I. Comefeito, pAi

(λ) = det[(A−λi I)−λI ] = det[A −(λ+λi)I ] = pA(λ+λi). Te-

mos pA(λ) = (λ − λi)ni q(λ) com  q(λi) = 0. Logo pAi(λ) = pA(λ + λi) =

λni ·  r(λ), onde   r(λ) =   q(λ  +  λi), portanto   r(0)  =   0. Isto posto,

o Teorema A2.2 nos assegura que dim  Ei   =   ni . Em particular,

dim  E1  + · · ·  + dim  Er   =   dim  E. Pela observacao que precede este

teorema, resta-nos apenas provar que  E  =  E1  + · · · + Er . Ora, o po-

linomio caracterıstico do operador A  se decompoe na forma

 pA(λ) =

r j=1

(λ − λ j)nj .

Page 340: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 340/358

Apendice A Forma Canonica de Jordan   329

Se pusermos

qi(λ) =

 j=i

(λ − λ j)nj ,

obteremos os polinomios   q1(λ), . . . , qr(λ), primos entre si. Por um

conhecido teorema de   ´ Algebra, existem polinomios  m 1(λ), . . . , m  r(λ)

tais que

m 1(λ)q1(λ) + · · · + m r(λ)qr(λ) = 1.

Segue-se que

m 1(A)q1(A) + · · · + m r(A)qr(A) = I.

 Assim, para todo v ∈ E, tem-se

 v =  v1 + · · · + vr , vi  = m i(A)qi(A) v.

Pelo Teorema de Cayley-Hamilton, temos

Ani

i   · qi(A) = (A − λiI)ni · j=i

(A − λ jI)nj

=

r

 j=1

(A

−λ jI

)nj = pA

(A

) = 0.

Logo  Ani

i   vi   =  0, ou seja  vi ∈  Ei  para todo  i  =  1, . . . , r. Isto conclui a

demonstracao do teorema.  

Teorema A2.4.   Os subespacos   Ei   =  N [(A  −  λiI)ni ]   definidos no

Teorema A2.3 s˜ ao invariantes por qualquer operador  B :  E → E  que

comute com A.

Demonstrac ˜ ao:   AB   =   BA ⇒   (A   −   λiI)B   =   B(A   −   λiI) ⇒⇒   (A  −  λiI)ni B   =   B(A  −  λiI)ni .   Logo   v ∈   Ei ⇒   (A  −  λiI)ni Bv   =

B(A − λiI)ni  v =  B · 0 =  0 ⇒ Bv ∈ Ei .  

Corolario. Os subespacos E1, . . . , Er  s ˜ ao invariantes por A.

Um  bloco de Jordan  n × n  e uma matriz triangular inferior da

forma

B(λ; n) =

λ

1 λ

1

  . .

.. . .   λ

1 λ

Page 341: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 341/358

330   A Forma Canonica de Jordan Apendice

onde os elementos da diagonal sao todos iguais, os elementos ime-

diatamente abaixo da diagonal sao todos iguais a 1 e os demais ele-

mentos sao zeros.Diz-se que uma matriz esta na  forma canonica de Jordan quando

ela e triangular inferior, com blocos de Jordan ao longo da diagonal e

os demais elementos iguais a zero. Os blocos de Jordan devem estar

agrupados consecutivamente em listas do tipo

B(λi; k 1), B(λi; k 2), . . . , B(λi; k si),

onde k 1 + k 2 + · · · + k si   = ni  = multiplicidade alg ebrica do auto-valor

λi  da matriz dada.Por exemplo, dispondo os blocos   B(λ1; 3),   B(λ1; 1)   e   B(λ2; 2)   ao

longo da diagonal, obtemos uma matriz  6 × 6  na forma canonica de

Jordan:

λ1   0 0 0 0 0

1 λ1   0 0 0 0

0 1 λ1   0 0 0

0 0 0 λ1   0 0

0 0 0 0 λ2   0

0 0 0 0 1 λ2

Teorema A2.5.   Para todo operador  A :  E → E  num espaco vetorial

complexo de dimens˜ ao finita, existe uma base na qual a matriz de  A

tem a forma canonica de Jordan.

Demonstrac  ao:   Seja  E  =  E1 ⊕ · · · ⊕ Er  a decomposicao assegurada

pelo Teorema A2.3. O Teorema A1.2 prova a existencia da forma

canonica de Jordan para operadores nilpotentes. Ora, para cada

i   =   1, . . . , r, a restricao  A −  λi I :  Ei →   Ei   e nilpotente. Logo existeuma base V i  ⊂   Ei   na qual a matriz de   A  −  λi I :   Ei →   Ei   tem a

forma canonica de Jordan (com zeros na diagonal). Logo a matriz

da restricao  A   = (A −  λiI) + λiI :  Ei →   Ei   tem a forma canonica de

Jordan (com os elementos da diagonal todos iguais a  λi). Segue-se

que V   = V 1 ∪ . . . ∪ V r  e uma base de  E  na qual a matriz de  A  tem a

forma canonica de Jordan.  

Do ponto de vista matricial, o resultado que acabamos de provar

significa que, para toda matriz quadrada complexa   a, existe umamatriz (complexa) invertıvel p tal que p−1ap esta na forma canonica

de Jordan.

Page 342: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 342/358

Apendice A Forma Canonica de Jordan   331

Exemplo A2.1.  Vamos usar a forma canonica de Jordan para pro-

var que toda matriz invertıvel possui uma raiz quadrada (complexa).

Preliminarmente observamos que se   x   e uma raiz quadrada dep−1ap entao pxp−1 e uma raiz quadrada de  a, pois

(pxp−1)2 = pxp−1pxp−1 = px2p−1 = p(p−1ap)p−1 = a.

Portanto, ao provar a existencia da raiz quadrada de uma matriz

invertıvel, nao ha perda de generalidade em supor que essa ma-

triz esta na forma canonica de Jordan, que  e uma forma triangular

particular. Em virtude da invertibilidade, os elementos da diagonal

(auto-valores) sao todos diferentes de zero.Trataremos explicitamente do caso  4 ×  4, deixando para o leitor

o caso  3 × 3  (mais simples) e o caso geral (mais complicado, porem

suscetıvel da mesma abordagem).

Temos entao uma matriz da forma

a =

a 0 0 0

b c 0 0

0 d e 0

0 0 f g

,

com a, c, e, g  diferentes de zero, e procuramos uma matriz

x =

x 0 0 0

 y z 0 0

m n p 0

q r s t

tal que x

2 = a. Ora, um calculo simples nos da

x2 =

x2 0 0 0

 y(x + z )   z 2 0 0

m (x + p) + ny n(z + p)   p2 0

q(x + t) + ry + ms r(z + t) + ns s( p + t)   t2

.

Portanto as incognitas x, y, z , m , n, p, q, r, s  e  t  devem satisfazer

as condicoes

(1)   x2 = a,   z 2 = c,   p2 = e,   t2 = g,

(2)   y(x + z ) = b,   n(z + p) = d,   s( p + t) = f,

Page 343: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 343/358

332   A Forma Canonica de Jordan Apendice

(3)   m (x + p) + ny =  0,   r(z + t) + ns =  0,

(4)   q(x + t) + ry + ms =  0.

Como  a,  c,  e,  g  sao diferentes de zero, podemos escolher  x,  z ,  p,

t tais que as igualdades (1) sejam satisfeitas e, alem disso, se tenha

x + z  = 0, z + p = 0, p + t = 0, x + p = 0, z + t = 0  e  x + t = 0. Isto nos

permite determinar  y,  n,  s  de modo a satisfazer as igualdades (2),

em seguida obter  m ,  r de modo que as igualdades (3) sejam validas

e, finalmente, usar (4) para determinar q.

Observac  ao: Uma matriz nao-invertıvel pode nao possuir raiz qua-

drada. Este e o caso, por exemplo, da matriz

a =

0 0

1 0

.

E f acil ver que nao existem numeros complexos  x,  y,  z ,  t  tais que a

matriz x  =

x y

z t

 cumpra x2 = a.

 A3. A Decomposic ˜ ao A = N+D

Nesta secao, mostraremos como visualizar a forma canonica de Jor-

dan de modo intrınseco, exprimindo-a sob o ponto-de-vista de opera-

dores, em vez de matrizes.

 A forma canonica de Jordan, estabelecida na secao anterior, mos-

tra que, dado um operador  A :  E

→E  num espaco vetorial complexo

de dimensao finita, existe uma base

V ⊂ E  na qual a matriz a  de  A  e

formada por blocos de Jordan ao longo da diagonal, sendo os blocos

que correspondem ao mesmo auto-valor de  A  agrupados consecuti-

vamente. Segue-se que  a   =   n +  d, onde  d  e uma matriz diagonal,

os elementos dessa diagonal sendo os auto-valores de   A   repetidos

de acordo com sua multiplicidade, e  n  e uma matriz triangular in-

ferior nilpotente (logo os elementos de sua diagonal sao todos iguais

a zero) na qual os elementos imediatamente abaixo da diagonal sao

iguais a 1 ou a 0 e os demais elementos sao nulos.

Resulta imediatamente daı a decomposicao   A   =   N  +  D, ondeD :  E →   E  e o operador cuja matriz na base V   e  d  e  N :  E →   E  e o

operador nilpotente do qual n  e a matriz na mesma base V .

Page 344: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 344/358

Apendice A Forma Canonica de Jordan   333

Um operador  D :  E

 →  E  chama-se  diagonaliz´ avel  quando existe

alguma base de   E   na qual a matriz de   D   e diagonal. Isto equi-

vale a dizer que a referida base de  E  e formada por auto-vetores dooperador  D.

 Assim, acabamos de mostrar que, num espaco vetorial complexo

de dimensao finita, todo operador  A :  E →   E  pode escrever-se como

soma A  =  N + D de um operador nilpotente com um diagonalizavel.

Na notacao do Teorema A2.3, N  e o operador cuja restricao a cada

subespaco Ei coincide com A−λiI, enquanto D restrito a cada um dos

Ei’s e igual a λiI. Como A − λiI e  λiI  comutam para todo  i  = 1, . . . , r,

segue-se que ND  =  DN.

Provaremos a seguir que esta  e a  unica maneira de se escrever

A =  N + D com  N  nilpotente, D  diagonalizavel e ND  =  DN.

Para maior clareza, destacaremos sob a forma de lemas dois fatos

elementares que usaremos na demonstracao dessa unicidade.

Lema 1.   A restric ˜ ao de um operador diagonaliz´ avel   D :  E →   E   a

um subespaco invariante F ⊂ E  ´  e ainda um operador diagonaliz ´ avel

D :  F→ F.

Demonstrac ˜ ao:   Seja V ⊂  E uma base formada por auto-vetores de

D. Introduzimos em E  um produto interno hermitiano, impondo que

a base V  seja ortonormal. Relativamente a esse produto interno, D

e normal. Portanto a restricao D :  F → F  e um operador hermitiano,

logo diagonalizavel. (V. Exercıcio 15.19).  

Lema 2.   A soma de dois operadores nilpotentes que comutam ´  e

ainda um operador nilpotente.

Demonstrac ˜ ao:   Sejam  M, N :  E → E  com  M p =  0,  Nq =  0  e  MN  =

NM. Esta comutatividade assegura que vale o binomio de Newton:

(M + N) p+q =

 p+qi=0

 p + q

i

MiN p+q−i .

No somatorio acima, as parcelas com  i ≥  p  sao nulas porque, neste

caso,   Mi =   0. Se, entretanto, tem-se   i < p   entao   p  + q  − i > q,logo  N p+q−i =  0. Assim as parcelas com  i < p  tambem sao nulas e

concluımos que (M + N) p+q = 0.  

Page 345: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 345/358

334   A Forma Canonica de Jordan Apendice

Teorema A3.1.   Seja   E   um espaco vetorial complexo de dimens˜ ao

 finita. Para todo operador linear A :  E

→E , existe uma ´ unica decom-

 posic ˜ ao A =  N+D com N :  E→ E nilpotente, D :  E→ E diagonaliz´ avel e ND  = DN.

Demonstrac ˜ ao:   Evidentemente,   N   e   D   comutam com   A. Pelo

Teorema A2.4, cada subespaco Ei  = N [(A − λiI)ni ]  e invariante por N

e por  D. Para  i  =  1, . . . , r, sejam  Ai, Ni, Di :  Ei → Ei  as restricoes de

A, N  e  D  ao subespaco Ei . A igualdade Ai  = Ni + Di  pode ser escrita

como (Ai − λiI) + λiI = Ni + Di  ou, ainda, como

(Ai

 −λiI

) −Ni

 = Di

 −λiI.

  (*)

Pelo Lema 2, o operador (Ai −λiI)− Ni  e nilpotente e pelo Lema 1, Di

e diagonalizavel, logo Di −  λiI  e diagonalizavel (pois qualquer vetor

nao-nulo  e auto-vetor de  λiI). Pela igualdade (*), esses operadores

sao, ao mesmo tempo, nilpotentes e diagonalizaveis, logo iguais a

zero. Portanto vale Ni  = Ai −  λiI e  Di  = λiI para i  = 1, . . . , r. Segue-

se que  N  e  D  sao os operadores anteriormente obtidos a partir do

Teorema A2.3.  

Page 346: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 346/358

Indicacoes Bibliograficas

Na sequencia usual das disciplinas matematicas que se estudam na

universidade, a   ´ Algebra Linear  e pre-requisito para a Analise das

funcoes de varias variaveis e para as Equacoes Diferenciais Ordina-rias. Seguem-se duas referencias:

“E de se esperar que vetores, matrizes, transformacoes lineares, etc constituam

a linguagem natural para tratar o Calculo Diferencial pois, afinal de contas, este

se baseia na ideia de aproximar, na vizinhanca de cada ponto do seu domınio, uma

funcao “arbitraria” por uma funcao linear (chamada sua derivada) e, a partir das

propriedades desta (presumivelmente mais faceis de constatar) obter informacoes

sobre aquela”.E. L. Lima

[1] E. L. Lima,  Curso de An´ alise, vol. 2  (3a¯ edicao.) Colecao Projeto

Euclides, IMPA, 1989.

 A   ´ Algebra Linear esta presente em toda parte do estudo das

funcoes reais de varias variaveis: na teoria das funcoes implıcitas,

nas integrais curvilıneas, na discussao dos pontos crıticos (na qual

as formas quadraticas desempenham o papel principal) e nas inte-grais de superf ıcie, onde e reforcada por seu prolongamento natural,

a   ´ Algebra Multilinear.

[2] M. Hirsch e S. Smale, Differential Equations, Dynamical Systems

and Linear Algebra. Academic Press, 1974.

Nestes  ultimos 20 anos, o texto de Hirsch/Smale firmou-se como

uma das principais referencias para uma introducao moderna ao es-

tudo das equacoes diferenciais ordinarias e uma preparacao paraa importante  area dos sistemas dinamicos. Ele pressupoe conheci-

mento de Analise a nıvel dos capıtulos iniciais da referencia 1 acima

Page 347: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 347/358

336   Indicacoes Bibliograficas

e de   ´ Algebra Linear a nıvel do presente livro. Mais de um terco

do texto   e dedicado  as equacoes diferenciais lineares, o que leva

os autores a desenvolver, de forma convincente, todo material de´ Algebra Linear nao tratado neste nosso livro. Na realidade, os au-

tores afirmam que o estudo dos sistemas de equacoes diferenciais

lineares com coeficientes constantes praticamente se identifica com

um capıtulo da   ´ Algebra Linear.

 Vejamos agora algumas referencias de livros sobre   ´ Algebra Li-

near.

Ha poucas decadas eram raros, muito raros mesmo, os livros de´

 Algebra Linear destinados a estudantes de graduacao. Hoje em diaha centenas deles, refletindo a enorme expansao do ensino desta

disciplina aos mais variados cursos universitarios. (Ver, a respeito,

a citacao de I. Kaplansky abaixo.)

 Aqueles que mencionarei representam uma amostra, extrema-

mente restrita, de tres tipos: os livros onde aprendi a materia, os

que podem servir de leitura colateral e os que oferecem alternativas

para estudos posteriores. A priori, aceito a acusacao de parcialidade

nas escolhas. Afinal, de gustibus et coloribus...

“It is desirable to have at hand not merely the formal operations with matrices,

but also the (often neglected) interpretation of the matrices by linear transforma-

tions”.

G. Birkhoff e S. MacLane

[3] Garrett Birkhoff e Saunders MacLane, A Survey of Modern Alge-

bra. (Macmillan, 1941. Revised edition 1953.)

Birkhoff/MacLane  e uma das mais bem sucedidas introducoes  a´ Algebra Moderna ja escritas. Trinta e oito por cento do livro e de-

dicado  a   ´ Algebra Linear. Embora a exposicao seja feita a partir dos

conceitos de espaco vetorial e transformacao linear, a  enfase domi-

nante e posta nas matrizes e suas “formas canonicas”, especialmente

matrizes de formas quadraticas. O estilo e ameno e ligeiro, bastanteagradavel. O leitor logo se acostumara com a notacao vA, em vez de

Av, usada pelos autores.

Page 348: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 348/358

Indicacoes Bibliograficas   337

“That Hilbert space theory and elementary matrix theory are intimately asso-

ciated came as a surprise to me and to many colleagues of my generation only after

studying the two subjects separately. This is deplorable... I present this little bookin an attempt to remedy the situation.”

Paul R. Halmos

[4] Paul R. Halmos,   Finite Dimensional Vector Spaces. (Princeton

Univ. Press 1942. Revised edition: Van Nostrand, 1958. Traducao

brasileira: Editora Campus, 1978.)

O livro de Halmos  e outro best-seller. Nele, o autor conversacom o leitor e procura motivar, com analogias, os conceitos e as

proposicoes, tudo isso feito com clareza e coerencia logica. Ha uma

grande preocupacao em dar definicoes e demonstracoes sem utilizar

coordenadas. Isto e feito com o proposito admitido de preparar a ca-

minho para os espacos de dimensao infinita, estudados em Analise

Funcional. So que muitas vezes esse purismo se torna artificial.

 Alem disso, com vistas a diversas aplicacoes, a familiaridade do es-

tudante com bases e coordenadas seria de grande utilidade.Os livros acima, na ordem citada, me serviram de cartilhas de

´ Algebra Linear, como a tantos estudantes de varias geracoes por

todo o mundo. Eles contem visoes complementares sobre o assunto

e sobre a maneira de ensina-lo.

“Dealing with vector spaces in the abstract also saves effort. The general the-

ory of vector spaces includes not only the vectors and matrices discussed in Chap-

ters 1 and 2 but also sets of real- and complex-valued functions of a real variable

and other more exotic mathematical objects. A fact which has been proved once

and for all in the general theory applies to a wide range of particular cases. That is

why it is worth investing some intellectual effort in understanding abstract linear

algebra”.

D. H. Griffel

[5] D. H. Griffel, Linear Algebra: A First Course and Applications (2

vols). (Ellis Horwood Limited, 1989.)

O livro de Griffel e escrito para estudantes nao-matematicos que

deverao usar   ´ Algebra Linear em suas carreiras. Ele emprega predo-

Page 349: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 349/358

338   Indicacoes Bibliograficas

minantemente matrizes e Rn em vez de transformacoes lineares e

espacos vetoriais porem, conforme a advertencia acima citada, oca-

sionalmente se rende  a conveniencia de adotar uma atitude maisadequada. Trata-se de um livro de grande simplicidade, muito claro

e bem organizado, com um sabor nitidamente “aplicado”. Contem

alguns erros matematicos engracados (como, por exemplo, “provar”

que toda matriz anti-simetrica tem determinante zero ou afirmar

que, pelo Teorema de Cayley-Hamilton, a exponencial de qualquer

matriz reduz-se a um polinomio nessa matriz). Tais erros sao pou-

cos, nao interferem no merito geral e deverao ser corrigidos em pro-

ximas edicoes. Sao ate instrutivos, inclusive para mostrar ao leitor o

que pode esperar no futuro ao ler alguns livros de Matematica Apli-

cada.

“The solution to each problem immediately follows the statement of the pro-

blem. However, you may wish to try to solve the problem yourself before reading 

the given solution. In fact, even after reading the solution, you should try to re-

solve the problem without consulting the text. Used thus, ‘3000 Solved Problems

in Linear Algebra’ can serve as a supplement to any course in linear algebra, or

even as an independent refresher course”.

S. Lipschutz

[6] Seymour Lipschutz,  Schaum’s solved problems series: 3000 sol-

ved problems in Linear Algebra. McGraw-Hill Book Company, 1989.

 A bem-sucedida serie Schaum de livros de problemas se baseia

numa ideia tipo ovo-de-Colombo: em vez de disputar sua adocao con-

tra tantos e tao fortes competidores, esses livros-texto se disfarcam

em colecoes de problemas e assim convivem pacificamente com seus

rivais, sendo adquiridos pelos estudantes, mesmo quando nao reco-

mendados pelos professores, como fontes suplementares de exercı-

cios. De um modo geral (e isto se aplica ao livro de Lipschutz) eles

contem uma boa lista de problemas rotineiros, que nao exigem gran-

des rasgos de imaginacao. Mas, principalmente porque sao acompa-

nhados de solucao, esses exercıcios sao uma ajuda valiosa para os

alunos que necessitam um esforco adicional a fim de acompanhar o

curso. Existe um livro analogo, tambem de Lipschutz, chamado “Li-near Algebra”, que foi traduzido para o portugues e publicado pela

McGraw-Hill do Brasil, em 1972.

Page 350: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 350/358

Indicacoes Bibliograficas   339

Os livros [5]. e [6]. acima se enquadram na categoria de leitura

colateral. Seguem-se tres referencias a livros que constituem opcoes

para a continuacao deste texto.“Matrix theory can be studied with no mention of linear spaces and most of the

results in this book are of such a nature. However, the introduction of linear spaces

and the role of matrices in defining or representing linear transformations on such

spaces add considerably to our insight. Most important, perhaps, the notions of 

linear spaces and linear transformations give a geometrical basis to matrix theory,

which aids both in understanding, as well as in suggesting proofs and new results.

J. Ortega

[7] James Ortega,  Matrix Theory. A Second Course.   Plenum Press,

1987.

 A economia de pensamento e notacao, bem como a riqueza ima-

ginativa que provem do uso da linguagem geometrica resultam do

emprego judicioso das nocoes de espaco vetorial e transformacao li-

near. Ortega tira grande proveito desse ponto de vista intrınseco

e consegue escrever um livro que, em meras 250 paginas, faz umarevisao dos princıpios basicos da   ´ Algebra Linear e desenvolve, com

notavel eficiencia, uma exposicao sobre topicos avancados da algebra

das matrizes, que pode ser  util tanto para o matematico puro como

para aqueles que se interessam de modo inteligente pelo calculo nu-

merico matricial.

“Linear Algebra, like motherhood, has become a sacred cow. It is taught eve-

rywhere; it is reaching down into the high schools; it is jostling calculus for the

right to be taught first”.I. Kaplansky

[8] Irving Kaplansky, Linear Algebra and Geometry.  Chelsea, 1969.

Kaplansky e um consagrado expositor. Na Universidade de Chi-

cago (onde era colega de MacLane e Halmos) suas aulas eram fa-

mosas pela eleg ancia das demonstracoes e pelo notavel poder de

sıntese. Estas qualidades estao presentes neste livro. Nele, o autor

oferece uma alternativa para um segundo curso de   ´ Algebra Linear,como fundamento basico da Geometria, esta  ultima vista em toda a

sua generalidade.

Page 351: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 351/358

340   Indicacoes Bibliograficas

“As a very simple example the reader should think of the principal axis theo-

rem (spectral theorem) for Rn which says that given a self-adjoint transformation,

one can choose an orthonormal basis in Rn so that the matrix of that transforma-

tion in that basis is diagonal. That is, if one chooses the right isomorphic copy of R

n (change of basis) then the operator becomes especially simple. As the reader

will see, this example is the first note of a rather long simphony”.

M. Reed e B. Simon

[9] M. Reed/B. Simon,   Methods of Mathematical Physics, vol. I:

 Functional Analysis.  (Revised Edition, Academic Press, 1980.)

 Ao mencionar o bem conhecido texto de Reed/Simon, minha in-

tencao e apresentar um livro de Analise Funcional, uma area da Ma-tematica onde tudo se passa dentro de espacos vetoriais. Ha muitos

bons livros sobre este assunto. (Um exemplo  a mao  e o excelente

“Operadores Auto-Adjuntos e Equacoes Diferenciais Parciais”, de

Javier Thayer, publicado no Projeto Euclides do IMPA.) A escolha de

Reed/Simon se deve nao apenas as suas boas qualidades intrınsecas

como tambem ao fato de que exibe a Analise Funcional (portanto os

espacos vetoriais) como porta de entrada para a Fısica Matematica.

Uma palavra sobre pre-requisitos: o livro de Ortega esta ao al-

cance imediato de quem leu o presente texto. Kaplansky requer um

conhecimento elementar de corpos, a nıvel de um curso introdutorio

de   ´ Algebra. Reed/Simon (ou qualquer outro livro de Analise Fun-

cional) pressupoe nocoes basicas de Analise, Teoria da Integral e

Equacoes Diferenciais.

[10] Ralph Costa Teixeira,   ´  Algebra Linear, exerc   ıcios e soluc ˜ oes .

(Colecao Matematica Universitaria, IMPA, 2009.)

O livro de Ralph Costa Teixeira contem as solucoes dos 594 exer-

cıcios propostos no presente texto. Na verdade, o total  e bem maior

do que seiscentos, pois varios desses exercıcios sao multiplos. Alem

das solucoes, todas completas e elegantemente apresentadas, cada

capıtulo tem inıcio com a revisao dos conceitos a serem tratados, a

discussao de simples exemplos adicionais e o destaque de algumas

proposicoes referentes ao tema estudado.

Page 352: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 352/358

Lista de Sımbolos

Rn,   R∞ 3

M(m × n)   3

F (X;R),

F (X; E)   3

Ck (R)   9C0(R), C∞(R)   10

P ,   P n   10

S(X)   11

F1 + F2   13

F1 ⊕ F2   13

R(∞) 27

L(E; F),   L(E)   39

E∗   39IE   39

 I m (A)   58

 N (A)   61

In   88

δij   88

 u, v   118

 u ⊥ v   121

 pr u ( v)   123

 prF( v)   126

A∗   133

aT  135

X⊥   137

Lr(E;R)   247

Ar(E)   248

det A   251

L(E1, . . . , Er;R)   263

 pA   268C

n 285

a∗   287

Page 353: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 353/358

Page 354: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 354/358

Indice Remissivo

Page 355: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 355/358

Indice Remissivo

 Adjunta classica

de uma transformacao li-

near, 135

 Anti-isomorfismo, 286

 Auto-subespaco, 154, 163

 Autovalor, 146, 147

generalizado, 171

 Autovetor, 146

Base

canonica, 26

complexa, 281de um espaco vetorial, 26

dual, 49, 133

ortonormal, 121

Bi-dual, 72

Combinacao convexa, 7

Complemento ortogonal, 137

Completamento do quadrado,

232

Complexificacao de um espaco

vetorial, 293, 305

Comprimento de um vetor, 119

Cone, 8

Conica, 237

Conjunto convexo

linearmente dependente, 26

linearmente independente,24

Conjunto ortogonal, 121

ortonormal, 121

Coordenadas de um vetor, 26

Cosseno do  angulo entre doisvetores, 132

Decomposicao a valores singu-

lares, 211

ldu, 223

lu, 212, 218

qr, 209

de Cholesky, 208, 218

polar, 183, 211

Descomplexificada, 281, 283

Desenvolvimento de um deter-

minante, 260

Desigualdade de Schwarz tri-

angular, 123

Determinante de ordem 2, 153

(caracterizacao axiomatica),

253de um operador, 251

de uma matriz, 253

do operador descomplexifi-

cado, 291

Diagonalizacao, 211

Dimensao

de um espaco vetorial, 27

de uma variedade afim, 32finita, 29

infinita, 30

344

Page 356: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 356/358

Indice Remissivo   345

Distancia entre vetores, 124

Eixos principais, 237

Elıpse, 237

Eliminacao de Gauss-Jordan, 111

gaussiana, 103, 212

Elipsoide, 170, 238

Envoltoria convexa, 8

Equacoes (a diferencas finitas)

lineares, 299

Escalonamento, 103

Espaco dual, 39, 286complexo, 280

euclidiano, 2

vetorial, 1

Espaco-coluna e espaco-linha,

91

Forma alternada, 247

Forma anti-simetrica, 247Forma bilinear, 224

anti-simetrica, 227

indefinida, 230

nao-negativa, 230

nao-positiva, 230

negativa, 230

positiva, 230

quadratica, 228

r-linear, 245

simetrica, 226

Forma sesqui-linear, 285

Funcao ımpar, 21

limitada, 21

par, 21

Funcional linear, 39

Geradores, 11Grafico de uma transformacao

linear, 81

Gramiano, 264

Hiperbole, 237

Hiperboloide, 238

Hiperplano, 10

Homotetia, 85

Identidade de Lagrange, 267

Imagem de um vetor, 38

de uma transformacao li-

near, 58´Indice mudo, 226de uma forma quadratica,

231

Inversa, 64

a direita, 59

a esquerda, 88

Inverso aditivo de um vetor, 1

Involucao, 78

Isometria, 185

Isomorfismo, 64

L.D., 26

L.I., 24

Lei da inercia, 232

Matriz, 3

anti-simetrica, 20, 190

aumentada, 106

conjugada, 287

de forma bilinear, 224

quadratica, 229

de Gram, 204

de Householder, 131, 186

de passagem, 89

de permutacao, 215

de posto maximo, 166

de Vandermonde, 265diagonal, 159

diagonalizavel, 144, 162

Page 357: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 357/358

346   Indice Remissivo

elementar, 212

escalonada, 102

hermitiana, 287identidade, 88

invertıvel, 88

nao-negativa, 162

normal, 189, 292

orgotonal, 175

por blocos, 291

positiva, 128, 162, 232

quadrada, 3

simetrica, 20, 162

transformacao linear, 35, 70

triangular, 34, 206

unitaria, 288

Matrizes semelhantes, 90

Menor (determinante), 259

principal, 262

Metodo de Lagrange, 232

Multiplicidade de um auto-vetor,275

de uma raiz, 288

Neg ocio de pai para filho, 319

Norma de um vetor, 119

aspectral, 171

Nucleo, 60

Numero de ouro, 318

Operacao elementar, 103, 111,

212

Operador anti-simetrico, 190

auto-adjunto, 156

hermitiano, 287, 293

idempotente, 77

identidade, 39

linear, 39nao-negativo, 161

nilpotente, 53, 290, 319

normal, 189, 292

positivo, 161

triangularizavel, 221, 269unitario, 287

Orientacao, 181

Paraboloide, 241

Paralelepıpedo, 264

Permutacao, 262, 263

Pivo, 213, 219

Plano, 21

Polarizacao, 228Polinomio caracterıstico, 150,

268

monico, 145

mınimo, 294

Posto de uma

forma quadratica, 231

matriz, 91, 92

transformacao linear, 91Processo de Gram-Schmidt, 124

Produto

cartesiano, 75

de Hadamard, 172

de matrizes, 86

de numero por transforma-

cao, 38

de numero por vetor, 1

de permutacoes, 262

de transformacoes lineares,

51

exterior de funcionais line-

ares, 264

hermitiano, 284

interno, 118

tensorial de funcionais li-

neares, 214, 218, 227,242, 248

vetorial, 131, 192, 266

Page 358: Álgebra Linear, Elon Lages Lima

8/16/2019 Álgebra Linear, Elon Lages Lima

http://slidepdf.com/reader/full/algebra-linear-elon-lages-lima 358/358

Indice Remissivo   347

Progressao aritmetica e geome-

trica, 300

Projecao, 76ortogonal, 43, 122, 138, 172

Pseudo-inversa, 195

Quadrado magico, 98

Quadrica, 238

central, 236

Raiz caracterıstica, 268

quadrada de um operador,

163

Reflexao no plano, 45

Regra de Cramer, 254

Reta, 9, 14

Rotacao, 42, 181

Segmento da reta, 7

Semelhanca, 186

Sequencia de Fibonacci, 318

Sımbolo de Kronecker, 88

Sistema de equacoes a diferen-

cas finitas linear homo-

g eneo, 27

Sistemas lineares equivalentes,

106

Solucao trivial, 27Soma de transformacoes line-

ares, 38

de vetores, 1

direta, 13, 21, 75

Subconjunto simetrico, 20

Subespaco vetorial, 9

gerado por um conjunto, 10

invariante, 146paralelo 15

Teorema

de Cayley-Hamilton, 274,

289, 309de Pitagoras, 122

do nucleo e da imagem, 65

espectral, 160

para operador complexo,

292

fundamental da  ´ Algebra, 145

Traco, 36, 99

Transformacao

afim, 50

C-linear, 281

injetiva, 60

invertıvel, 64

linear, 38

ortogonal, 179

sobrejetiva, 58

Translacao, 239

Transposicao, 262Transposta de uma matriz, 135

 Valor singular, 166

 Variedade afim, 14

 Vetor-coluna e vetor-linha, 3

unitario, 119

 Vetores

linearmente dependente, 26,

264

linearmente independentes,

24

ortogonais, 121

 Volume, 264