algebra linear

146
PONTIFÍCIA UNIVERSIDADE CATÓLICA DE MINAS GERAIS ÁLGEBRA LINEAR ROBERTO DE MARIA NUNES MENDES Professor do Departamento de Matemática e Estatística e do Programa de Pós-graduação em Engenharia Elétrica 2009

Upload: dilma-doroteia

Post on 05-Jul-2015

1.277 views

Category:

Documents


35 download

TRANSCRIPT

Page 1: Algebra Linear

PONTIFÍCIA UNIVERSIDADE CATÓLICA DEMINAS GERAIS

ÁLGEBRA LINEAR

ROBERTO DE MARIA NUNES MENDESProfessor do Departamento de Matemática e Estatística e do

Programa de Pós-graduação em Engenharia Elétrica

2009

Page 2: Algebra Linear

Sumário

Prefácio 1

1 Espaços Vetoriais 21.1 Definições e Exemplos . . . . . . . . . . . . . . . . . . . . . . 21.2 Subespaços . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.3 Independência Linear. Bases. Dimensão . . . . . . . . . . . . 71.4 Espaços Produto e Quociente . . . . . . . . . . . . . . . . . . 111.5 Somas e Somas Diretas . . . . . . . . . . . . . . . . . . . . . . 131.6 Exercícios do Capítulo 1 . . . . . . . . . . . . . . . . . . . . . 16

2 Aplicações Lineares 182.1 Definições e Exemplos . . . . . . . . . . . . . . . . . . . . . . 182.2 Composição e Inversão de Aplicações Lineares . . . . . . . . . 232.3 Álgebra das Aplicações Lineares . . . . . . . . . . . . . . . . . 282.4 Exercícios do Capítulo 2 . . . . . . . . . . . . . . . . . . . . . 30

3 Matrizes 323.1 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323.2 Produto de Matrizes . . . . . . . . . . . . . . . . . . . . . . . 343.3 Aplicação Linear × Matriz . . . . . . . . . . . . . . . . . . . . 353.4 Mudança de Bases . . . . . . . . . . . . . . . . . . . . . . . . 423.5 Exercícios do Capítulo 3 . . . . . . . . . . . . . . . . . . . . . 47

4 Formas Lineares. Dualidade 494.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 494.2 Anulador de um Subespaço . . . . . . . . . . . . . . . . . . . 524.3 Transposição . . . . . . . . . . . . . . . . . . . . . . . . . . . 534.4 Exercícios do Capítulo 4 . . . . . . . . . . . . . . . . . . . . . 57

5 Determinantes 585.1 Aplicações r-lineares alternadas . . . . . . . . . . . . . . . . . 58

i

Page 3: Algebra Linear

SUMÁRIO ii

5.2 Determinante de um Operador Linear . . . . . . . . . . . . . . 635.3 Desenvolvimento em relação aos elementos de uma coluna (ou

de uma linha) . . . . . . . . . . . . . . . . . . . . . . . . . . . 665.4 Matrizes Elementares . . . . . . . . . . . . . . . . . . . . . . . 715.5 Equações Lineares . . . . . . . . . . . . . . . . . . . . . . . . 78

6 Autovalores e Autovetores 846.1 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 846.2 Diagonalização . . . . . . . . . . . . . . . . . . . . . . . . . . 896.3 Polinômios de Operadores e Matrizes . . . . . . . . . . . . . . 946.4 Exercícios do Capítulo 6 . . . . . . . . . . . . . . . . . . . . . 97

7 Produto Interno 997.1 Definições e Exemplos . . . . . . . . . . . . . . . . . . . . . . 997.2 Bases Ortonormais . . . . . . . . . . . . . . . . . . . . . . . . 1057.3 Relações entre V e V ∗ . . . . . . . . . . . . . . . . . . . . . . 1087.4 Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1107.5 Exercícios do Capítulo 7 . . . . . . . . . . . . . . . . . . . . . 113

8 Operadores Unitários e Normais 1148.1 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1148.2 Operadores Positivos . . . . . . . . . . . . . . . . . . . . . . . 1198.3 Matrizes Simétricas Positivas. Decomposição de Cholesky . . . 1228.4 Teorema dos Valores Singulares . . . . . . . . . . . . . . . . . 1248.5 Exercícios do Capítulo 8 . . . . . . . . . . . . . . . . . . . . . 127

9 Formas Bilineares e Quadráticas 1299.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . 1299.2 Matriz de uma forma bilinear . . . . . . . . . . . . . . . . . . 1319.3 Mudanças de Bases . . . . . . . . . . . . . . . . . . . . . . . . 1319.4 Formas Quadráticas . . . . . . . . . . . . . . . . . . . . . . . . 1329.5 Formas Bilineares Simétricas Reais . . . . . . . . . . . . . . . 132

10 Miscelânea 13610.1 Orientação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13610.2 Volume de Paralelepípedo . . . . . . . . . . . . . . . . . . . . 13710.3 Matriz de Gram . . . . . . . . . . . . . . . . . . . . . . . . . . 13810.4 Produto Vetorial . . . . . . . . . . . . . . . . . . . . . . . . . 139

Exercícios de Revisão 141

Bibliografia 143

Page 4: Algebra Linear

Prefácio

A origem dessas notas de Álgebra Linear remonta a um curso feito paraalunos do Bacharelado em Matemática da UFMG. Na ocasião, fizemos umaprimeira redação revista pelos professores do ICEx-UFMG, Michel Spira eWilson Barbosa, a quem muito agradecemos. Mais recentemente, retoma-mos o trabalho e, após várias mudanças, aproveitamos parte do material nadisciplina “Métodos Matemáticos” do Programa de Pós-Graduação em En-genharia Elétrica da PUCMINAS. A versão final das notas foi revista pelaprofessora Mariana Cornelissen Hoyos da PUCMINAS, a quem agradecemosa generosa assistência. Agradecemos também a Eric Fernandes de MelloAraújo pela eficiência e boa vontade na digitação do manuscrito. As notasnada contêm de original; são apenas um resumo do material exposto, commuito mais profundidade, nos livros indicados na Bibliografia e que utiliza-mos livremente. Ao leitor, bom proveito.

Belo Horizonte, julho de 2009Roberto N. Mendes

1

Page 5: Algebra Linear

Capítulo 1

Espaços Vetoriais

1.1 Definições e ExemplosSeja K um corpo com elementos neutros distintos 0 e 1, por exemplo, K = Rou K = C.

Definição 1.1 Um espaço vetorial sobre K é um conjunto V munido de duasleis:

V × V −→ V e K × V −→ V

(u, v) 7−→ u+ v (a, v) 7−→ av

tais que, para quaisquer u, v, w ∈ V e a, b ∈ K, se tenha:(1) u+ v = v + u(2) (u+ v) + w = u+ (v + w)(3) existe 0 ∈ V , chamado o vetor zero, tal que v + 0 = v(4) dado v ∈ V , existe (−v) ∈ V , chamado o oposto de v, tal que v+(−v) = 0(5) 1 · v = v(6) a(bv) = (ab)v(7) a(u+ v) = au+ av(8) (a+ b)v = av + bv.

Exemplo 1.1.1 Seja V = Kn, onde n ∈ N, com as leis:

(x1, ..., xn) + (y1, ..., yn) = (x1 + y1, ..., xn + yn)

É fácil verificar que, com estas leis, Kn é um espaço vetorial sobre K.

Observação: Os elementos de um espaço vetorial V são chamados devetores, enquanto que os deK são chamados de escalares. Essa nomenclatura

2

Page 6: Algebra Linear

CAPÍTULO 1. ESPAÇOS VETORIAIS 3

deriva do exemplo acima. As leis são chamadas de adição e multiplicação porescalar, respectivamente.

No exemplo 1.1.1, se n = 1, vemos que K é um espaço vetorial sobresi mesmo, de modo que seus elementos são, ao mesmo tempo, escalares evetores.

Exemplo 1.1.2 Seja V = Pn, onde n ∈ N, o conjunto das funções polino-miais de grau estritamente menor que n, com coeficientes em K, juntamentecom a função zero. Se p = a0+a1t+...+an−1t

n−1 e q = b0+b1t+...+bn−1tn−1,

definimos p+ q ∈ V e cp ∈ V , onde c ∈ K, por:

p+ q = (a0 + b0) + (a1 + b1)t+ ...+ (an−1 + bn− 1)tn−1

cp = ca0 + ca1t+ ...+ can−1tn−1

Resulta que Pn é um espaço vetorial sobre K.

Exemplo 1.1.3 Seja V = K[t] o conjunto de todos os polinômios a umavariável, com coeficientes em K. Definindo as leis como no exemplo 1.1.2, éimediato que K[t] é um espaço vetorial sobre K.

Exemplo 1.1.4 Seja V = F(I,R) o conjunto das funções f : I 7−→ R, ondeI ⊂ R é um intervalo. Se f, g ∈ V e a ∈ R, definimos f + g e af por:

(f + g)(x) = f(x) + g(x)

(af)(x) = a · f(x)

para todo x ∈ I. Verifica-se imediatamente que essas leis tornam F(I,R)um espaço vetorial real, isto é, sobre R.

Consequências Imediatas da Definição

(a) Se u, v ∈ V definimos:

u− v = u+ (−v)

Se a ∈ K, então

a(u− v) + av = a[(u− v) + v] = a[u+ (−v) + v] = a(u+ 0) = au.

Somando −av aos dois membros, vem:

a(u− v) + av − av = au− av,

Page 7: Algebra Linear

CAPÍTULO 1. ESPAÇOS VETORIAIS 4

donde:a(u− v) = au− av.

Fazendo u = v, obtemosa · 0 = 0

e tambéma(−v) = a(0− v) = a · 0− av = −av.

(b) Se a, b ∈ K e v ∈ V , então:

(a− b)v + bv = (a− b+ b)v = av,

donde:(a− b)v = av − bv

Fazendo a = b, vem0 · v = 0

e também(−a)v = (0− a)v = 0 · v − av = −av.

(c) Para todo a ∈ K e todo v ∈ V vimos que

0 · v = a · 0 = 0

Suponhamos que av = 0. Se a 6= 0 então

0 = a−1 · 0 = a−1(av) = 1 · v = v.

Portanto, av = 0 implica ou a = 0 ou v = 0.

Exercícios

1. O conjunto de todos os polinômios de grau 3, com coeficientes reais emunido das leis usuais, juntamente com o polinômio zero, forma umespaço vetorial real?

2. Dê exemplo de um conjuntoM que verifique todos os axiomas de espaçovetorial, exceto 1 · v = v para todo v ∈M .

Page 8: Algebra Linear

CAPÍTULO 1. ESPAÇOS VETORIAIS 5

3. O conjunto das sequências complexas z = (zn)n≥1 tais que

zn+2 = zn+1 + zn, n ≥ 1,

munido das leis usuais, forma um espaço vetorial complexo?

4. O conjunto das funções f : R 7−→ R duas vezes continuamente derivá-veis e tais que f ′′ + af ′ + bf = 0 (a e b reais fixos), munido das leisusuais, forma um espaço vetorial real?

5. Prove que o conjunto das funções limitadas f : R 7−→ R, munido dasleis usuais, é um espaço vetorial real.

6. Seja l1(N) o conjunto das sequências x = (xn)n≥1 onde xn ∈ C e∞∑n=1

|xn| < ∞. Prove que, com as leis usuais, l1(N) é um espaço ve-

torial complexo.

1.2 SubespaçosSeja V um espaço vetorial sobre o corpo K.

Definição 1.2 Dizemos que W ⊂ V é um subespaço de V se:(a) 0 ∈ W(b) u, v ∈ W =⇒ u+ v ∈ W(c) a ∈ K, v ∈ W =⇒ av ∈ W

É claro que W , com as leis induzidas pelas de V , é um espaço vetorialsobre K.

Exemplo 1.2.1 Em V = Kn verifica-se imediatamente queW = {(x1, ..., xn) ∈Kn;x1 = 0} é um subespaço.

Exemplo 1.2.2 Em V = F(R,R), espaço vetorial real das funções f : R→R, o subconjunto formado pelas funções contínuas é um subespaço.

Proposição 1.1 Seja V um espaço vetorial sobre K. A interseção de umafamília qualquer de subespaços de V é um subespaço de V .

Dem. Seja (Wα)α∈A uma família de subespaços de V , e seja W =⋂α∈A

Wα.

Então:

Page 9: Algebra Linear

CAPÍTULO 1. ESPAÇOS VETORIAIS 6

(a) 0 ∈ W pois 0 ∈ Wα para todo α ∈ A.(b) u, v ∈ W ⇐⇒ u, v ∈ Wα para todo α ∈ A =⇒ (u + v) ∈ Wα para todoα ∈ A =⇒ (u+ v) ∈ W .(c) α ∈ K, v ∈ W =⇒ av ∈ Wα para todo α ∈ A =⇒ av ∈ W .

Definição 1.3 Seja X um subconjunto não-vazio do espaço vetorial V sobre

K. Todo elemento da forma a1v1 + ...+ amvm =m∑i=1

aivi, onde m ∈ N, vi ∈

X, ai ∈ K, 1 ≤ i ≤ m, é chamado de combinação linear de elementos de X.É fácil verificar que o conjunto de todas as combinações lineares de ele-

mentos de X é um subespaço de V , chamado de subespaço gerado por X.

Proposição 1.2 O subespaço gerado por X ⊂ V, X 6= ∅, é a interseção detodos os subespaços de V contendo X, ou seja, é o “menor” (para a inclusãode conjuntos) subespaço de V contendo X.

Dem. Seja (Wα)α∈A a família de todos os subespaços de V contendo X.Sabemos que W =

⋂α∈A

Wα é um subespaço de V . É claro que W contém X

e, portanto, que W contém todas as combinações lineares de elementos de X,ou seja, W contém o subespaço S gerado por X. Como S é um subespaço deV contendo X, temos que W ⊂ S. Resulta W = S.

Exercícios1. Seja V = F(R,R) o espaço vetorial real das funções f : R → R.

Verifique se W é subespaço de V nos seguintes casos:(a) W = conjunto das funções pares(b) W = conjunto das funções ímpares(c) W = conjunto das funções deriváveis(d) W = conjunto das funções C∞

2. Qual a expressão do elemento genérico do subespaço de K[t] geradopelos polinômios t2 e t3?

3. Verifique se W = {(x, y, z) ∈ R3; x = 2y} é subespaço de R3.

4. Mostre que W = {(0, y, z) ∈ R3} é gerado por (0, 1, 1) e (0, 2,−1).

5. Mostre que o conjunto das funções f : R → R de classe C2 tais quef ′′ + af ′ + bf = 0 (a e b reais fixos) é um subespaço de F(R,R).

6. Mostre que, em geral, a união de dois subespaços não é um subespaço.

Page 10: Algebra Linear

CAPÍTULO 1. ESPAÇOS VETORIAIS 7

1.3 Independência Linear. Bases. DimensãoDefinição 1.4 Sejam X 6= ∅, X ⊂ V, V um espaço vetorial sobre K. Dize-mos que X é linearmente independente se, quaisquer que sejam v1, ..., vm ∈X, m ∈ N, a equação a1v1 + ... + amvm = 0, onde a1, ..., am ∈ K, im-plica a1 = a2 = ... = am = 0. Se X não é linearmente independente(LI) dizemos que X é linearmente dependente (LD); neste caso, existemv1, ..., vp ∈ X, p ∈ N, e escalares não todos nulos, a1, ..., ap, tais quea1v1 + ...+ apvp = 0.

Exemplo 1.3.1 Em Kn consideremos os vetores

e1 = (1, 0, ..., 0)

e2 = (0, 1, ..., 0)

...

en = (0, ..., 0, 1)

Esses vetores são LI, pois a1e1 + ...+anen = (a1, ..., an) = 0 = (0, ..., 0)⇔a1 = 0, ..., an = 0.

Exemplo 1.3.2 Em Pn os vetores 1, t, ..., tn−1 são LI pois a0 + a1t + ... +an−1t

n−1 = 0 implica a0 = a1 = ... = an−1 = 0.

Exemplo 1.3.3 No espaço das funções f : R → R de classe C1 considere-mos os vetores f1(t) = er1t, f2(t) = er2t onde r1 6= r2 são reais. f1, f2 sãoLI pois se a1f1 + a2f2 = 0 então a1e

r1t + a2er2t = 0 para todo t ∈ R, donde

a1e(r1−r2)t + a2 = 0 para todo t ∈ R. Derivando: a1(r1 − r2)e(r1−r2)t = 0 para

todo t ∈ R, donde a1 = 0 e, portanto, a2 = 0.

Exemplo 1.3.4 Consideremos os elementos 1 e i de C. Considerando Ccomo um espaço vetorial real, 1 e i são LI. Considerando C como um espaçovetorial complexo, 1 e i são LD.

Proposição 1.3 Se v1, ..., vn são vetores LI em V e

a1v1 + ...+ anvn = b1v1 + ...+ bnvn,

com ai ∈ K, bi ∈ K (1 ≤ i ≤ n), então ai = bi para todo i.

Dem. A relação dada é equivalente a (a1 − b1)v1 + ... + (an − bn)vn = 0,donde a1 − b1 = ... = an − bn = 0, isto é, ai = bi para i = 1, 2, ..., n.

Page 11: Algebra Linear

CAPÍTULO 1. ESPAÇOS VETORIAIS 8

Definição 1.5 Seja V um espaço vetorial sobre K. Dizemos que G ⊂ Vgera V ou que G ⊂ V é um conjunto de geradores de V se todo v ∈ V écombinação linear de vetores de G, ou seja, se o subespaço gerado por G éV . Dizemos que o conjunto de geradores G é mínimo se, qualquer que sejag ∈ G, o conjunto G1 = G− {g} não gera V .

Exemplo 1.3.5 Em Kn os vetores e1 = (1, 0, ..., 0), ..., en = (0, ..., 0, 1) for-mam um conjunto de geradores mínimo.

Definição 1.6 Seja X ⊂ V um conjunto LI no espaço vetorial V . Dizemosque X é um conjunto linearmente independente máximo se, para todo v ∈ V ,v /∈ X, o conjunto X1 = X ∪ {v} é LD.

Exemplo 1.3.6 Os vetores e1 = (1, 0, ..., 0), ..., en = (0, ..., 0, 1) de Kn for-mam um conjunto LI máximo.

Proposição 1.4 Sejam v1, ..., vm vetores LI do espaço vetorial V gerado porw1, ..., wp. Então m ≤ p e, alterando-se eventualmente a numeração dos wi,os vetores v1, ..., vm, wm+1, ..., wp ainda geram V .

Dem. Seja v1 = a11w1 + ... + ap1wp; sem perda de generalidade podemossupor a11 6= 0 e, então:

w1 = b11v1 + b21w2 + ...+ bp1wp.

Logo, toda combinação linear de w1, ..., wp também é combinação linearde v1, w2, ..., wp, ou seja, estes vetores geram V .

Seja v2 = a12v1+a22w2+...+ap2wp; ao menos um dos escalares a22, ..., ap2é diferente de zero pois v1 e v2 são LI. Podemos supor a22 6= 0 e, então:

w2 = b12v1 + b22v2 + b32w3 + ...+ bp2wp,

e toda combinação linear de v1, w2, ...wp é também combinação linear dev1, v2, w3, ..., wp, ou seja, estes vetores geram V .

Repetindo essa operação um número finito de vezes, vemos que, parar ≤ min(m, p), os vetores v1, ..., vr, wr+1, ..., wp geram V . Se fosse m > p,tomando r = p, teríamos que v1, ..., vp gerariam V e, portanto, vp+1, ..., vmseriam combinações lineares de v1, ..., vp, o que é absurdo já que v1, ..., vm sãoLI. Portanto, m ≤ p e, ao fim de um número finito de operações, obteremoso conjunto de geradores v1, ..., vm, wm+1, ..., wp.

Page 12: Algebra Linear

CAPÍTULO 1. ESPAÇOS VETORIAIS 9

Corolário 1.4.1 Se w1, ..., wp geram V e n > p, então v1, ..., vn são LD. Emparticular, p+ 1 vetores que são combinações lineares de p vetores quaisquersão LD.

Proposição 1.5 Seja X um subconjunto não-vazio do espaço vetorial V so-bre K. As propriedades seguintes são equivalentes:(a) X é LI e gera V(b) X é um conjunto de geradores mínimo(c) X é um conjunto LI máximo

Dem. (a)⇒ (b): Sejam x ∈ X, Y = X−{x}. Se x fosse combinação linear

de vetores de Y , x =n∑i=1

aiyi, yi ∈ Y, ai ∈ K, 1 ≤ i ≤ n, então X seria

LD, contradição. Portanto, Y não gera V , o que mostra que X é mínimo.(b)⇒ (c): Se X fosse LD existiriam vetores x, x1, ..., xn de X e escalares

a, a1, ..., an, não todos nulos, tais que ax+a1x1+ ...+anxn = 0. Sem perda degeneralidade podemos supor a 6= 0, donde x = b1x1 + ...+bnxn e, portanto, Xnão seria mínimo, contradição. Além disso, X é (um conjunto LI) máximo

pois, dado v ∈ V , temos v =m∑i=1

aixi, xi ∈ X, ai ∈ K, 1 ≤ i ≤ m, ou seja,

X ∪ {v} é LD.(c)⇒ (a): Seja v ∈ V, v /∈ X, então Y = X ∪{v} é LD e existem vetores

x1, ..., xn de X e escalares a, a1, ..., an, não todos nulos, tais que

av + a1x1 + ...+ anxn = 0.

Se fosse a = 0 resultaria X LD. Então a 6= 0 e v = b1x1 + ...+ bnxn, isto é,X gera V (e é LI).

Definição 1.7 Seja V um espaço vetorial sobre K. X ⊂ V, X 6= ∅, é umabase de V se X possui uma das (e portanto as três) propriedades da propo-sição 1.5.

Se V tem uma base finita X = {v1, ..., vn} dizemos que V tem dimensãofinita; neste caso, se v ∈ V , então v se escreve de modo único na formav = a1v1 + ...+ anvn, ai ∈ K, 1 ≤ i ≤ n.

Proposição 1.6 Sejam {v1, ..., vn} e {w1, ..., wp} bases do espaço vetorial Vsobre K. Então:

n = p

Page 13: Algebra Linear

CAPÍTULO 1. ESPAÇOS VETORIAIS 10

Dem. Como v1, ..., vn são LI e w1, ..., wp geram V , temos n ≤ p. Porsimetria, p ≤ n. Logo, n = p.

Definição 1.8 Sejam V um espaço vetorial sobre K e {v1, ..., vn} uma basede V . Dizemos que n é a dimensão de V sobre K. Por definição a dimensãode V = {0} é zero.Notação: n = dimKV ou n = dim V

Exemplo 1.3.7 Kn tem dimensão n e {e1, ..., en} é uma base de Kn, cha-mada de base canônica.

Exemplo 1.3.8 {1, t, ..., tn−1} é base de Pn, donde dim Pn = n.

Exemplo 1.3.9 V = K[t] não tem dimensão finita sobre K.

Exemplo 1.3.10 dimRC = 2 e {1, i} é uma base.dimCC = 1 e {1} é uma base.Uma base de Cn sobre R é {e1, ie1, e2, ie2, ..., en, ien}.

Corolários:

(1) Se dim V = n e v1, ..., vn são LI, então {v1, ..., vn} é base de V (pois éum conjunto LI máximo).(2) Se W é subespaço de V e dim W = dim V , então W = V (pois todabase de W é também base de V ).(3) Se dim V = n e m > n então os vetores v1, ..., vm são LD (pois o númeromáximo de vetores LI é n).

Proposição 1.7 Seja V um espaço vetorial de dimensão n sobre K. Se-jam v1, ..., vr, r < n, vetores LI. Então existem vr+1, ..., vn ∈ V tais que{v1, ..., vr, vr+1, ..., vn} seja base de V .

Dem. Como r < n, {v1, ..., vr} não é um conjunto LI máximo; logo, existevr+1 ∈ V tal que {v1, ..., vr, vr+1} seja LI. Se r + 1 < n podemos repetir oargumento. Após um número finito de repetições obteremos n vetores LI,v1, ..., vn, ou seja {v1, ..., vn} é base de V .

Exercícios

1. Mostre que t3 − t2 + 1, q = t2 − 1 e r = 2t3 + t− 1 são LI em P4.

Page 14: Algebra Linear

CAPÍTULO 1. ESPAÇOS VETORIAIS 11

2. Prove que f, g, h ∈ F(R,R) são LI, onde

f(t) = t, g(t) = et e h(t) = sen t.

3. Ache uma condição necessária e suficiente para que u = (a, b) ∈ K2 ev = (c, d) ∈ K2 sejam LD.

4. Seja W o subespaço de P4 gerado por u = t3− t2 + 1, v = t2− 1 e w =t3 − 3t2 + 3. Ache uma base para W .

5. Existe alguma base de P4 que não contenha nenhum polinômio de grau2?

6. Seja (v1, ..., vm) uma sequência de vetores não-nulos do espaço vetorialV . Prove que se nenhum deles é combinação linear dos anteriores entãoo conjunto {v1, ..., vm} é LI.

7. Seja V um espaço vetorial de dimensão finita. Prove que todo conjuntode geradores de V contém uma base.

1.4 Espaços Produto e QuocienteSejam V1 e V2 espaços vetoriais sobre K e V = V1 × V2 = {(v1, v2); v1 ∈V1, v2 ∈ V2} seu produto cartesiano. Vamos introduzir em V uma estruturavetorial, definindo:

(v1, v2) + (u1, u2) = (v1 + u1, v2 + u2)

a(v1, v2) = (av1, av2) , a ∈ K

É imediato verificar que, com estas leis, V = V1×V2 é um espaço vetorialsobre K. A definição do espaço produto se estende a um número finitoqualquer de espaços vetoriais. Se V1, ..., Vn são espaços vetoriais sobre K eV = V1 × ...× Vn, definimos:

(v1, ..., vn) + (u1, ..., un) = (v1 + u1, ..., vn + un)

a(v1, ..., vn) = (av1, ..., avn) , a ∈ K

Desta maneira V fica munido de uma estrutura vetorial sobre K.

Proposição 1.8 Se V1 e V2 têm dimensão finita sobre K, então

dim(V1 × V2) = dim V1 + dim V2.

Page 15: Algebra Linear

CAPÍTULO 1. ESPAÇOS VETORIAIS 12

Dem. Sejam {v1, ..., vn} e {u1, ..., up}, respectivamente, bases de V1 e V2.Vamos provar que {(v1, 0), ..., (vn, 0), (0, u1), ..., (0, up)} é base de V1×V2. Sev ∈ V1 e u ∈ V2, existem escalares ai, bj tais que v = a1v1 + ... + anvn eu = b1u1 + ...+ bpup. Então:

(v, u) = (a1v1 + ...+ anvn, b1u1 + ...+ bpup) =

= a1(v1, 0) + ...+ an(vn, 0) + b1(0, u1) + ...+ bp(0, up),

o que mostra que os vetores (v1, 0), ..., (0, up) geram V1 × V2.Se tivermos a1(v1, 0) + ...+ an(vn, 0) + b1(0, u1) + ...+ bp(0, up) = 0 então

(a1v1 + ... + anvn, b1u1 + ... + bpup) = (0, 0), donde a1v1 + ... + anvn = 0 eb1u1 + ... + bpup = 0, que implicam a1 = ... = an = 0 e b1 = ... = bp = 0, ouseja, os vetores (v1, 0), ..., (0, up) são LI.

Definição 1.9 Sejam V um espaço vetorial sobre K e W um seu subespaço.Se v ∈ V definimos v +W por:

v +W = {v + w;w ∈ W}

Observemos que v +W = u+W ⇔ v − u ∈ W .

SejaV

W= {v +W ; v ∈ V }. Para introduzir uma estrutura vetorial sobre

V

Wdefinamos:

(v +W ) + (u+W ) = (v + u) +W

a(v +W ) = av +W ,a ∈ K.

Essas leis estão bem definidas pois se u+W = u1 +W e v+W = v1 +W ,então

(v1 +W ) + (u1 +W ) = (u1 + v1) +W = (u+ v) +W =

= (v +W ) + (u+W ), já que (u1 + v1)− (u+ v) =

= (u1 − u) + (v1 − v) ∈ W.

Analogamente, se a ∈ K e v1 +W = v +W , temos:

a(v1 +W ) = av1 +W = av +W = a(v +W )

pois av1 − av = a(v1 − v) ∈ W .

Page 16: Algebra Linear

CAPÍTULO 1. ESPAÇOS VETORIAIS 13

É pura rotina verificar que, com estas leis,V

Wse torna um espaço vetorial

sobre K. O elemento neutro da adição emV

Wé a classe W = 0 +W .

V

chamado de espaço vetorial quociente de V por W .

Exemplo 1.4.1 Sejam V = R2 e W uma reta pela origem de R2. Um

elemento típico deV

Wé uma reta v + W paralela a W , e

V

Wconsiste de

todas as retas paralelas a W em R2.

Exercícios1. Prove que se v1 + W, ..., vn + W são LI em

V

W, então v1, ..., vn são LI

em V .

2. Sejam V um espaço vetorial e W um subespaço. Para u, v ∈ V defina-mos u ≈ v se u − v ∈ W . Prove que ≈ é uma relação de equivalênciaem V e que o conjunto das classes de equivalência é o espaço quocienteV

W.

1.5 Somas e Somas DiretasDefinição 1.10 Sejam V um espaço vetorial sobre K,U e W subespaços deV . A soma de U e W é definida por:

U +W = {u+ w, u ∈ U, w ∈ W}.

Page 17: Algebra Linear

CAPÍTULO 1. ESPAÇOS VETORIAIS 14

É fácil ver que U + W é um subespaço de V . De fato, se u1, u2 ∈ U ,w1, w2 ∈ W e a ∈ K, temos:(a) 0 = 0 + 0 ∈ U +W(b) (u1 + w1) + (u2 + w2) = (u1 + u2) + (w1 + w2) ∈ U +W(c) a(u1 + w1) = au1 + aw1 ∈ U +W

Dizemos que V é soma direta de U e W , e escrevemos V = U ⊕W , setodo elemento v ∈ V se escreve, de modo único, na forma v = u + w, comu ∈ U e w ∈ W .

Proposição 1.9 V = U ⊕W se, e só se, V = U +W e U ∩W = {0}.

Dem. Se V = U ⊕W é claro que V = U +W . Além disso, se v ∈ U ∩Wtemos, de modo único, v = v + 0 = 0 + v, donde v = 0, isto é U ∩W = {0}.

Reciprocamente, seja v ∈ V arbitrário. Como V = U +W temos v = u+w, com u ∈ U, w ∈ W . Se tivéssemos também v = u1+w1, u1 ∈ U, w1 ∈ W ,então teríamos u − u1 = w1 − w ∈ U ∩W = {0}, donde u = u1 e w = w1,ou seja, a representação de v na forma u+ w é única. Logo, V = U ⊕W .

Proposição 1.10 Sejam V um espaço vetorial sobre K, de dimensão finita,e W um subespaço de V . Existe subespaço U de V tal que V = U ⊕W .

Dem. Seja {w1, ..., wr} base de W . Sabemos que existem vetores u1, ..., us ∈V tais que {w1, ..., wr, u1, ..., us} seja base de V . Seja U o subespaço geradopor u1, ..., us. É claro que V = U ⊕W .

Obs.: Em geral existem muitos subespaços U de V tais que V = U ⊕W .Dizemos que um tal U é um subespaço suplementar de W.

Proposição 1.11 Sejam V um espaço vetorial de dimensão finita sobre K,U e W dois de seus subespaços. Se V = U ⊕W então dim V = dim U +dim W .

Dem. Sejam {u1, ..., ur} e {w1, ..., ws} bases de U e W , respectivamente.Provemos que {u1, ..., ur, w1, ...ws} é base de V . Se v ∈ V então v = u + w,com u ∈ U e w ∈ W , ou seja, u = a1u1 + ...+ arur e w = b1w1 + ...+ bsws.Portanto,

v = a1u1 + ...+ arur + b1w1 + ...+ bsws

e os vetores u1, ..., ur, w1, ..., ws geram V .

Page 18: Algebra Linear

CAPÍTULO 1. ESPAÇOS VETORIAIS 15

Seja a1u1 + ...+ arur + b1w1 + ...+ bsws = 0. Então:

a1u1 + ...+ arur = −b1w1 − ...− bsws.

Como U ∩W = {0} resulta a1u1 + ... + arur = 0 e b1w1 + ... + bsws = 0,donde a1 = ... = ar = 0 e b1 = ... = bs = 0, ou seja, u1, ..., ur, w1, ..., ws sãoLI.

Logo, {u1, ..., ur, w1, ..., ws} é base de V e dim V = r + s = dim U +dim W .

O conceito de soma direta se estende à soma de vários subespaços V1, ..., Vndo espaço vetorial V . Dizemos que V é a soma direta de V1, ..., Vn, e escre-vemos V = V1 ⊕ V2 ⊕ ... ⊕ Vn, se todo v ∈ V se escreve, de modo único, naforma v = v1 + v2 + ...+ vn, onde vi ∈ Vi, i = 1, 2, ..., n.

Proposição 1.12 Sejam V um espaço vetorial de dimensão finita sobre K,V1, ..., Vr subespaços de V e, para cada i = 1, ..., r, {vi1, ...vini} base de Vi.

V = V1 ⊕ ...⊕ Vr se, e só se, B = {v11, ..., v1n1 , ..., vr1, vr2, ..., vrnr} é basede V .

Dem. Se V = V1 ⊕ ... ⊕ Vr então todo v ∈ V se escreve de modo único naforma v = v1 + ...+ vr, onde vi ∈ Vi, 1 ≤ i ≤ r. Mas

vi =

ni∑k=1

akivik, 1 ≤ i ≤ r.

Logo:

v =r∑i=1

ni∑k=1

akivik e B gera V.

Suponhamos quer∑i=1

ni∑k=1

akivik = 0. Pondo vi =

ni∑k=1

akivik, temos que

vi ∈ Vi, i = 1, ..., r. Então: v1 + ...+ vr = 0 e, como a soma é direta, temos

vi = 0, isto é,ni∑k=1

akivik = 0, donde aki = 0 pois vi1, ..., vini são LI. Logo, B

é LI e, portanto, B é base de V .

Reciprocamente, se B é base de V , então v =r∑i=1

ni∑k=1

akivik =r∑i=1

vi, onde

vi =

ni∑k=1

akivik pertence a Vi, i ≤ i ≤ r. Logo: V = V1 + ... + Vr. A soma

Page 19: Algebra Linear

CAPÍTULO 1. ESPAÇOS VETORIAIS 16

é direta pois se v1 + ... + vr = 0, vi ∈ Vi, entãor∑i=1

ni∑k=1

akivik = 0, donde

aki = 0 e, portanto, vi = 0, 1 ≤ i ≤ r.

Exercícios

1. Sejam U, V,W os seguintes subespaços de R3:U = {(x, y, z) ∈ R3;x + y + z = 0}; V = {(x, y, z) ∈ R3;x = z} eW = {(0, 0, z) ∈ R3; z ∈ R}. Mostre que R3 = U + V , R3 = U + W ,R3 = V +W . Quando é que a soma é direta?

2. Sejam V = F(R,R), U o subespaço das funções pares e W o dasímpares. Mostre que V = U ⊕W .

3. Sejam U e W subespaços de V. Se

V = U +W e dim V = dim U + dim W <∞,

prove que V = U ⊕W .

4. Sejam V um espaço vetorial de dimensão finita sobre K, U e W subes-paços de V . Prove:

dim(U +W ) ≤ dim U + dim W

1.6 Exercícios do Capítulo 11. Determine uma base para o subespaço de R4 descrito por x = (x1, x2, x3, x4)

tal que x1 = x2 − 3x3, x3 = 2x4. Complete a base obtida a uma basedo R4.

2. Em V = F(R,R) considere fk(t) = erkt onde rk ∈ R, 1 ≤ k ≤ n. Proveque f1, ..., fn são LI se, e só se, r1 6= r2 6= ... 6= rn.

3. Sejam v1, ..., vn LI e u = b1v1 + ...+ bjvj + ...+ bnvn com bj 6= 0. Proveque v1, ..., vj−1, u, vj+1, ..., vn são LI.

4. SejaW um subespaço do espaço vetorial V . Suponha que v1, ..., vn ∈ Vsejam LI e gerem um subespaço U tal que U ∩W = {0}. Prove que os

vetores v1 +W, ..., vn +W são LI emV

W.

Page 20: Algebra Linear

CAPÍTULO 1. ESPAÇOS VETORIAIS 17

5. Sejam V um espaço vetorial, U e W seus subespaços. Se U e W têmdimensões finitas, prove que:

dim U + dim W = dim(U +W ) + dim(U ∩W ).

6. Sejam V um espaço vetorial real e u, v ∈ V . O segmento de reta deextremidades u e v é o conjunto [u, v] = {(1 − t)u + tv; 0 ≤ t ≤ 1}.X ⊂ V é convexo se u, v ∈ X ⇒ [u, v] ⊂ X. Prove:(a) Se X, Y ⊂ V são convexos, então X ∩ Y é convexo.(b) Se X ⊂ V é convexo e r, s, t são reais não negativos tais que r +s+ t = 1, então u, v, w ∈ X ⇒ ru+ sv + tw ∈ X.(c) Se X ⊂ V , a envoltória convexa de X é o conjunto C(X) das

combinações t1x1 + ...+ tnxn, onde ti ≥ 0,n∑i=1

ti = 1, n ∈ N, chamadas

combinações convexas dos elementos de X. Prove que C(X) é convexo,que X ⊂ C(X) e que se C ′ é convexo e X ⊂ C ′ então C(X) ⊂ C ′.

7. Seja V um espaço vetorial real. A ⊂ V é uma variedade afim se u, v ∈A, t ∈ R⇒ (1− t)u+ tv ∈ A. Prove:(a) Se A,B ⊂ V são variedades afins, então A ∩B é variedade afim.(b) Se A 6= ∅ é uma variedade afim em V , existe um único subespaçovetorial W ⊂ V tal que para todo x ∈ A tem-se

A = x+W = {x+ w;w ∈ W}.

8. Dado o conjunto finito X = {a1, ..., an}, ache uma base para o espaçovetorial real F(X,R) = {f : X → R}.

Page 21: Algebra Linear

Capítulo 2

Aplicações Lineares

2.1 Definições e ExemplosDefinição 2.1 Sejam V e W espaços vetoriais sobre K. Dizemos que umaaplicação T : V → W é linear se:

T (u+ v) = T (u) + T (v)

T (av) = a · T (u),

quaisquer que sejam u, v ∈ V e a ∈ K.

Exemplo 2.1.1 A aplicação identidade I : V → V , I(v) = v é linear, bemcomo a aplicação zero, 0 : V → V , 0(v) = 0 para todo v ∈ V .

Exemplo 2.1.2 Seja V = K[t] o espaço vetorial dos polinômios na variávelt com coeficientes em K. A aplicação derivada D : V → V , definida porD(a0 + a1t+ a2t

2 + ...+ amtm) = a1 + 2a2t+ ...+mamt

m−1, é uma aplicaçãolinear.

Exemplo 2.1.3 Se V1 e V2 são espaços vetoriais sobre K e V = V1 × V2,as aplicações p1 : V → V1 e p2 : V → V2 definidas por p1(v1, v2) = v1 ep2(v1, v2) = v2 são lineares.

Exemplo 2.1.4 Seja W um subespaço do espaço vetorial V. A aplicação

π : V → V

W, π(v) = v +W , é linear.

Exemplo 2.1.5 Seja V = C0([0, 1],R) o espaço vetorial real das funçõescontínuas f : [0, 1]→ R. A aplicação f ∈ V 7−→ T (f) ∈ V , onde

(Tf)(x) =

∫ x

0

f(t)dt, x ∈ [0, 1],

18

Page 22: Algebra Linear

CAPÍTULO 2. APLICAÇÕES LINEARES 19

é linear. É também linear a função f ∈ V 7−→∫ 1

0

f(t)dt ∈ R.

Proposição 2.1 Sejam V e W espaços vetoriais sobre K e (v1, v2, ..., vn) umabase ordenada de V. Dada a sequência (w1, ..., wn) de vetores de W, existeuma e uma única aplicação linear T : V → W tal que T (vi) = wi, 1 ≤ i ≤ n.

Dem. Seja v ∈ V . Então v se escreve, de modo único, como v = a1v1 +...+ anvn. Definamos T : V → W por T (v) = a1w1 + ...+ anwn. É claro queT (vi) = wi, 1 ≤ i ≤ n. Mostremos que T é linear. Se u = b1v1 + ... + bnvn,então:

T (u+v) = T [(a1 +b1)v1 + ...+(an+bn)vn] = (a1 +b1)w1 + ...+(an+bn)wn =

= (a1w1 + ...+ anwn) + b1w1 + ...+ bnwn = T (v) + T (u).

Se c ∈ K, temos

T (cv) = T (ca1v1 + ...+ canvn) = ca1w1 + ...+ canwn =

= c(a1w1 + ...+ anwn) = c · T (v).

Logo, T é linear. Se L : V → W é aplicação linear tal que

L(vi) = wi, 1 ≤ i ≤ n,

então L(a1v1 + ... + anvn) = a1w1 + ... + anwn = T (v) para todo v ∈ V , ouseja, T = L, o que mostra a unicidade de T.

Proposição 2.2 Seja T : V → W linear. Então:(a) T (0) = 0 , T (−v) = −v.(b) Se U ⊂ V é subespaço, então T (U) ⊂ W é subespaço.(c) Se U ′ ⊂ W é subespaço, então T−1(U ′) ⊂ V é subespaço.

Dem. (a) Como T é linear, T (av) = aT (v) para todo a ∈ K e todo v ∈ V .Fazendo a = 0, vem:

T (0 · v) = 0 · T (v), donde: T (0) = 0.

Fazendo a = −1, vem:

T (−v) = −T (v)

(b) T (U) ⊂ W é subespaço pois:

Page 23: Algebra Linear

CAPÍTULO 2. APLICAÇÕES LINEARES 20

1. 0 = T (0) ∈ T (U)

2. Se T (u), T (v) ∈ T (U) então T (u) + T (v) = T (u+ v) ∈ T (U)

3. Se a ∈ K e T (v) ∈ T (U) então aT (v) = T (av) ∈ T (U)

(c) T−1(U ′) ⊂ V é subespaço pois:

1. 0 ∈ T−1(U ′) já que T (0) = 0 ∈ U ′

2. Se u, v ∈ T−1(U ′) então T (u), T (v) ∈ U ′, donde T (u) + T (v) = T (u +v) ∈ U ′, donde u+ v ∈ T−1(U ′)

3. Se a ∈ K e v ∈ T−1(U ′) então aT (v) = T (av) ∈ U ′ e, portanto,av ∈ T−1(U ′).

Definição 2.2 Seja T : V → W linear. O subespaço T (V ) ⊂ W é chamadode imagem de T e anotado Im T . O subespaço T−1(0) ⊂ V é chamado denúcleo de T e anotado N (T ). Assim,

Im T = {T (v) ∈ W ; v ∈ V }

N (T ) = {v ∈ V ; T (v) = 0}

Obs.: Por definição T é sobrejetora se Im T = W e T é injetora seu 6= v implica T (u) 6= T (v).

Proposição 2.3 Seja T : V → W linear. São equivalentes:(a) N (T ) = {0}(b) T é injetora(c) T transforma cada conjunto LI de vetores de V em conjunto LI de vetoresde W.

Dem. (a)⇔ (b): N (T ) = {0} ⇔ T (w) = 0 implica w = 0 ⇔ T (u− v) = 0implica u− v = 0⇔ T (u) = T (v) implica u = v ⇔ T é injetora.

(b)⇒ (c): Seja X ⊂ V um conjunto LI e seja Y = T (X). Vamos provarque Y é LI. De fato, se aiy1 + ...+aryr = 0 onde r ∈ N e yi = T (xi), 1 ≤ i ≤r, xi ∈ X, ai ∈ K, então a1T (x1)+...+arT (xr) = 0 ∴ T (a1x1+...+arxr) = 0,donde a1x1+...+arxr = 0 (pois N (T ) = {0}), o que implica a1 = ... = ar = 0(pois X é LI), resultando Y ser LI.

(c) ⇒ (a): Todo vetor v 6= 0 é LI, donde T (v) é LI, ou seja, T (v) 6= 0.Portanto: N (T ) = {0}.Obs.: Se T : V → W é linear e v1, ..., vn geram V , então é claro que

Page 24: Algebra Linear

CAPÍTULO 2. APLICAÇÕES LINEARES 21

T (v1), ..., T (vn) geram Im T pois todo w ∈ Im T é da forma w = T (v) paraalgum v ∈ V e v = a1v1 + ...+ anvn. Resulta que, se V tem dimensão finita,então dim Im T ≤ dim V .

Definição 2.3 Seja T : V → W linear, V de dimensão finita. O posto de Té a dimensão de Im T :

r = posto(T ) = dim Im T , donde r ≤ dim V.

Proposição 2.4 Seja T : V → W linear. São equivalentes:(a) T é sobrejetora(b) T transforma conjunto de geradores de V em conjunto de geradores deW.

Dem. (a)⇒ (b):Sejam X um conjunto de geradores de V e Y = T (X). Vamos provar que

Y gera W. Se w ∈ W e T é sobrejetora, existe v ∈ V tal que w = T (v).

Mas v =m∑i=1

aixi, ai ∈ K, xi ∈ X. Logo, T (v) =m∑i=1

aiT (xi) =m∑i=1

aiyi com

yi ∈ Y , ou seja, Y gera W.(b)⇒ (a):Sejam X um conjunto de geradores de V e Y = T (X). Então Y gera W.

Se w ∈ W , temos w =

p∑i=1

aiyi, ai ∈ K, yi ∈ Y, yi = T (xi), xi ∈ X. Logo,

w =

p∑i=1

aiT (xi) = T

(p∑i=1

aixi

)= T (v) com v ∈ V , isto é, T é sobrejetora.

Exemplo 2.1.6 Seja T : C3 → C3, T (x1, x2, x3) = (x1 − x2, 2x1 + x2 +3x3,−x1−2x2−3x3). T é linear e Im T é gerada por T (1, 0, 0) = (1, 2,−1) =w1, T (0, 1, 0) = (−1, 1,−2) = w2 e T (0, 0, 1) = (0, 3,−3) = w3. É fácil verque w1 e w2 são LI e que w3 = w1 +w2. Portanto, {w1, w2} é base de Im Te posto(T ) = r = 2. O núcleo de T é definido pelas equações:

x1 − x2 = 0

2x1 + x2 + 3x3 = 0

−x1 − 2x2 − 3x3 = 0

A solução deste sistema é dada por x1 = x2 = −x3. Logo: N (T ) ={(−t,−t, t) ∈ C3; t ∈ C} e, por exemplo, (−1,−1, 1) é base de N (T ).

Observemos que dim C3 = 3 = dim N (T ) + dim Im T , o que ilustra oteorema seguinte.

Page 25: Algebra Linear

CAPÍTULO 2. APLICAÇÕES LINEARES 22

Proposição 2.5 (Teorema do núcleo e da imagem)Sejam V, W espaços vetoriais sobre K e T : V → W linear. Se V tem

dimensão finita, então:

dim V = dim N (T ) + dim Im T.

Dem. Seja {v1, ..., vs} base de N (T ) e sejam vs+1, ..., vn ∈ V tais que{v1, ..., vs, vs+1, ..., vn} seja base de V. Se w = T (v) ∈ Im T e v = a1v1 + ...+anvn, então w = as+1T (vs+1) + ...+ anT (vn) já que T (v1) = ... = T (vs) = 0;logo T (vs+1), ..., T (vn) geram Im T .

Além disso, esses vetores são LI; de fato, se bs+1T (vs+1)+ ....+bnT (vn) =0, então T (bs+1vs+1 + ...+ bnvn) = 0, ou seja, bs+1vs+1 + ...+ bnvn ∈ N (T ).Portanto, podemos escrever bs+1vs+1 + ...+ bnvn = b1v1 + ...+ bsvs.

Como v1, ..., vs, vs+1, ..., vn são LI, resulta bs+1 = ... = bn = 0 (e tam-bém b1 = ... = bs = 0). Resulta que {T (vs+1, ..., T (vn)} é base de Im T edim Im T = n− s = dim V − dim N (T ), donde a tese.

Corolário 2.5.1 Sejam T : V → W linear, dim V = n, dim W = p.Então:(a) T é injetora ⇔ r = posto(T ) = n. Neste caso, dim V ≤ dim W .(b) T é sobrejetora ⇔ r = posto(T ) = p. Neste caso, dim V ≥ dim W .

Corolário 2.5.2 Seja T : V → W linear, com dim V = dim W < ∞. Sãoequivalentes:(a) T é bijetora;(b) T é injetora;(c) T é sobrejetora;(d) se {v1, ..., vn} é base de V, então {Tv1, ..., T vn} é base de W;(e) existe base {v1, ..., vn} de V tal que {Tv1, ..., T vn} seja base de W.

Dem. (a)⇒ (b): É óbvio.(b) ⇒ (c): Como T é injetora, temos posto(T ) = dim V = dim W = n,

donde Im T = W .(c) ⇒ (d): Tv1, ..., T vn geram Im T = W . Como dim W = n, resulta

que {Tv1, ..., T vn} é base de W.(d)⇒ (e): É óbvio.(e) ⇒ (a): Seja {v1, ..., vn} base de V tal que {Tv1, ..., T vn} seja base de

W. Como Tv1, ..., T vn ∈ Im T e geram W resulta que W ⊂ Im T , dondeIm T = W , ou seja, T é sobrejetora.

Page 26: Algebra Linear

CAPÍTULO 2. APLICAÇÕES LINEARES 23

Se v = a1v1 + ...+ anvn é tal que T (v) = 0, então

a1T (v1) + ...+ anT (vn) = 0,

donde a1 = ... = an = 0 pois Tv1, ..., T vn são LI. Logo, v = 0 e T é injetora.Portanto, T é bijetora.

Exercícios

1. Seja T : V → W linear. Prove que são equivalentes:(a) T é injetora;(b) para toda decomposição V = V1⊕V2 tem-se T (V ) = T (V1)⊕T (V2)

2. Ache T : R2 → R linear tal que T (1, 1) = −1 e T (1, 0) = 3.

3. Seja T : V → W linear. Prove que se T (v1), ..., T (vn) são LI, entãov1, ..., vn são LI.

4. Ache T : R3 → R4 linear cuja imagem seja gerada por (1,0,2,-4) e(0,2,-1,3).

5. Seja T : V → V linear. Prove que se Tv1, ..., T vn geram V, entãov1, ..., vn geram V.

6. Seja T : R2 → R2 definido por T (x, y) = (ax + by, cx + dy), comad− bc 6= 0. Prove:(a) v 6= 0⇒ Tv 6= 0.(b) Toda reta l ⊂ R2 é transformada por T numa reta.(c) T transforma retas paralelas em retas paralelas.

2.2 Composição e Inversão de Aplicações Line-ares

Proposição 2.6 Sejam U, V, W espaços vetoriais sobre o corpo K e T :U → V, L : V → W aplicações lineares. Então a composta L ◦ T : U → Wé linear.

Dem. Se u, v ∈ U , então

(L ◦ T )(u+ v) = L(T (u+ v)) = L(Tu+ Tv) = L ◦ T (u) + L ◦ T (v).

Page 27: Algebra Linear

CAPÍTULO 2. APLICAÇÕES LINEARES 24

Se a ∈ K e u ∈ U , então

(L ◦ T )(au) = L(T (au)) = L(aT (u)) = aL(T (u)) = a(L ◦ T )(u).

Resulta que L ◦ T é linear.

Proposição 2.7 Seja T : V → W linear bijetora. Então a aplicação inversaT−1 : W → V também é linear (e bijetora).

Dem. Sejam w1 = T (v1) e w2 = T (v2) elementos arbitrários de W. Então:

T−1(w1+w2) = T−1(Tv1+Tv2) = T−1(T (v1+v2)) = v1+v2 = T−1(w1)+T−1(w2).

Se a ∈ K e w = T (v) ∈ W , então: T−1(aw) = T−1(aT (v)) = T−1(T (av)) =av = aT−1(w).

Resulta que T−1 : W → V é linear.

Definição 2.4 Uma aplicação linear T : V → W é um isomorfismo de Vsobre W se T é bijetora. Se, além disso, V = W então diremos que T é umautomorfismo de V. Se existe um isomorfismo de V sobre W dizemos que Ve W são isomorfos.

Corolário 2.7.1 A composta de dois isomorfismos é um isomorfismo. Ainversa de um isomorfismo é um isomorfismo.Obs.: Representamos por L(V,W ) o conjunto das aplicações lineares de Vem W. No caso em que V = W é usual chamar uma aplicação linear T :V → V de operador linear em V e representar L(V, V ) simplesmente porL(V ) e por GL(V ) o conjunto dos automorfismos de V.

Proposição 2.8 Seja V um espaço vetorial sobre o corpo K. Se T, L ∈GL(V ) então T ◦ L ∈ GL(V ) e (T ◦ L)−1 = L−1 ◦ T−1.

Dem. Já vimos que a composta de automorfismos é automorfismo. Bastaentão verificar que

(T ◦ L) ◦ (L−1 ◦ T−1) = (L−1 ◦ T−1) ◦ (T ◦ L) = I,

operador identidade de V, o que é imediato.

Page 28: Algebra Linear

CAPÍTULO 2. APLICAÇÕES LINEARES 25

Proposição 2.9 Se T : V → W é linear sobrejetora, então W é isomorfo

ao espaço quocienteV

N (T ).

Dem. Seja π : V → V

N (T )a aplicação quociente, isto é, π(v) = v +

N (T ), v ∈ V . É imediato que π é linear.

Seja L :V

N (T )→ W definida por L(v+N (T )) = T (v), ou seja, L◦π = T

(dizemos então que o diagrama abaixo comuta). Mostremos que L está bemdefinida e é injetora:

L(u+N (T )) = L(v +N (T ))⇔ T (u) = T (v)⇔ T (u− v) = 0⇔

⇔ u− v ∈ N (T )⇔ u+N (T ) = v +N (T ).

Além disso, L é sobrejetora pois, dado w ∈ W , existe v ∈ V tal queT (v) = w (já que T é sobrejetora) e, portanto, L(v + N (T )) = w. Logo,L é bijetora. Resta provar que L é linear. Sejam u, v ∈ V , então: L(u +N (T ) + v + N (T )) = L(u + v + N (T )) = T (u + v) = T (u) + T (v) =L(u+N (T )) + L(v +N (T )). Se a ∈ K e v ∈ V , então: L(a(v +N (T ))) =

(av+N (T )) = T (av) = aT (v) = aL(v+N (T )). Resulta que L :V

N (T )→ W

é um isomorfismo.

Corolário 2.9.1 Sejam V um espaço vetorial sobre K, U e W subespaços de

V tais que V = U ⊕W . Então,V

Ué isomorfo a W.

Page 29: Algebra Linear

CAPÍTULO 2. APLICAÇÕES LINEARES 26

Dem. Seja p : V → W definida por p(v) = w, onde v = u+w com u ∈ U ew ∈ W . É imediato que p é linear sobrejetora e

N (p) = {v ∈ V ; p(v) = 0} = U.

Portanto, pela proposição 2.9, temos queV

Ué isomorfo a W.

Corolário 2.9.2 Sejam T : V → W linear e U ⊂ V subespaço tal queV = N (T )⊕ U . Então U é isomorfo a Im T .

Dem. Decorre da proposiçã 2.9 queV

N (T )é isomorfo a Im T . Pelo corolário

2.9.1 temos queV

N (T )é isomorfo a U. Resulta que U e Im T são isomorfos.

Proposição 2.10 Sejam U e W subespaços do espaço vetorial V de dimen-são finita sobre o corpo K. Então:

dim U + dim W = dim (U +W ) + dim (U ∩W ).

Dem. Seja T : U ×W → V, T (u,w) = u − w. É imediato que T é linear.Além disso,

Im T = {v = u− w; u ∈ U, w ∈ W} = U +W

N (T ) = {(u,w) ∈ U ×W ; u = w} = {(u, u) ∈ U ×W, u ∈ U ∩W}.É fácil ver que a aplicação u ∈ U ∩W 7−→ (u, u) ∈ N (T ) é um isomor-

fismo. Portanto, dim N (T ) = dim (U ∩W ). Pela proposição 2.5, temos:dim (U ×W ) = dim (U +W ) + dim (U ∩W ), ou seja,

dim U + dim W = dim (U +W ) + dim(U ∩W ).

Proposição 2.11 Todo espaço vetorial de dimensão n sobre K é isomorfo aKn.

Dem. Seja V um espaço vetorial de dimensão n sobre K. Seja {v1, ..., vn}uma base de V. Se v ∈ V , então v = a1v1+...+anvn, onde ai ∈ K, 1 ≤ i ≤ n.

Seja T : V → Kn definida por T (v) = T (a1v1 + ...+anvn) = (a1, ..., an) ∈Kn. É fácil verificar que T é um isomorfismo.

Page 30: Algebra Linear

CAPÍTULO 2. APLICAÇÕES LINEARES 27

Corolário 2.11.1 Todos os espaços vetoriais de mesma dimensão finita nsobre K são isomorfos entre si.

Exemplo 2.2.1 Seja T : V → V linear tal que T 3 = 0. Prove que I − T éum automorfismo de V.

A igualdade formal1

1− x= 1+x+x2+x3+... nos sugere que (I−T )−1 =

I + T + T 2 + T 3 + ... = I + T + T 2 já que T 3 = 0, donde T n = 0 para n ≥ 3.De fato, temos:

(I − T )(I + T + T 2) = I + T + T 2 − T − T 2 − T 3 = I

(I + T + T 2)(I − T ) = I − T + T − T 2 + T 2 − T 3 = I

Portanto, I − T é um automorfismo de V e (I − T )−1 = I + T + T 2.

Exemplo 2.2.2 U e W sendo dois subespaços suplementares do espaço ve-torial V, isto é, V = U⊕W , todo v ∈ V se escreve, de modo único, na formav = u + w, onde u ∈ U e w ∈ W . Consideremos T : U ×W → U ⊕Wdefinida por T (u,w) = u+ w. É fácil ver que T é linear bijetora, ou seja, Té um isomorfismo de U ×W sobre U ⊕W .

Reciprocamente, dados dois espaços vetoriais U e W sobre K, para todov = (u,w) de V = U ×W temos, de modo único: (u,w) = (u, 0) + (0, w).Se U ′ e W ′ são, respectivamente, os subespaços de V descritos por (u, 0)e (0, w), então é claro que U ′ é isomorfo a U e que W ′ é isomorfo a W.Então, V = U ×W = U ′ ⊕W ′. Se identificarmos U com U ′ bem como Wcom W ′, então poderemos considerar U e W como subespaços suplementaresde U × W , o que significa identificar os dois espaços isomorfos U × W eU ⊕W . Nestas condições, a aplicação de U ⊕W sobre U dada por u+w 7−→u, se identifica com p1 : U × W → U, p1(u,w) = u, e é a projeção deV = U ⊕W sobre o subespaço U, paralelamente ao subespaço suplementarW. Analogamente, a aplicação u + w 7−→ w se identifica com a projeçãop2 : U ×W → W, p2(u,w) = w de V sobre o subespaço W paralelamente aU.

Em particular, se V = U⊕W tem dimensão finita, então: dim (U×W ) =dim (U ⊕W ) = dim U + dim W , já visto anteriormente.

Exercícios1. Sejam T, L ∈ L(V ) tais que L ◦ T = T ◦ L. Prove:

(a) L(N (T ) ⊂ N (T );(b) L(Im T ) ⊂ Im T .

Page 31: Algebra Linear

CAPÍTULO 2. APLICAÇÕES LINEARES 28

2. Sejam L : V → U, T : U → W lineares. Se U, V e W têm dimensãofinita, prove que:(a) posto(T ◦ L) ≤ posto(T );(b) posto(T ◦ L) ≤ posto(L).

3. Sejam V um espaço vetorial de dimensão finita sobre K, L e T elementosde L(V ) tais que L ◦ T = I. Mostre que L é invertível e que T = L−1.

4. Sejam T : V → U linear e W ⊂ V subespaço. Seja T |W = L : W → Ua restrição de T a W, isto é, T (w) = L(w) para todo w ∈ W . Prove:(a) L é linear;(b) N (L) = N (T ) ∩W ;(c) Im L = T (W ).

5. Seja V = Pn+1 o espaço vetorial dos polinômios de grau menor ou iguala n, com coeficientes reais. Ache um suplementar do subespaço W de

V formado pelos polinômios p(t) tais que p(1) = 0 e prove queV

isomorfo a R.

2.3 Álgebra das Aplicações LinearesSe V eW são espaços vetoriais sobre o corpo K, vimos que L(V,W ) representao conjunto das aplicações lineares de V em W. Se L, T ∈ L(V,W ) e a ∈ K,definimos L+ T e aT , aplicações de V em W, por:

(L+ T )(v) = L(v) + T (v)

(aT )(v) = aT (v),

para todo v ∈ V . É fácil verificar que L+T e aT são lineares, isto é, elementosde L(V,W ). Assim, no conjunto L(V,W ) temos duas leis, (L, T ) 7−→ L+T e(a, T ) 7−→ aT , e deixamos aos cuidados do leitor provar que são satisfeitos osoito postulados que definem uma estrutura vetorial. Lembramos apenas quea aplicação linear zero é a aplicação 0(v) = 0 para todo v ∈ V e que a opostade T ∈ L(V,W ) é a aplicação (−T ) tal que (−T )(v) = −T (v) para todov ∈ V . Concluímos que L(V,W ), munido das leis de adição (L, T ) 7−→ L+Te de multiplicação por escalar (a, T ) 7−→ aT , é um espaço vetorial sobre K.

Estrutura de Anel de L(V )

Se L, T ∈ L(V ), vimos que L+ T e L ◦ T são elementos de L(V ). Assim,L(V ) está munido de duas leis, (L, T ) 7−→ L + T e (L, T ) 7−→ L ◦ T , que

Page 32: Algebra Linear

CAPÍTULO 2. APLICAÇÕES LINEARES 29

tornam L(V ) um anel com identidade, isto é:(a) para a adição L(V ) é um grupo abeliano:

1. L+ T = T + L;

2. (L+ T ) + S = L+ (T + S);

3. existe 0 ∈ L(V ) tal que T + 0 = T ;

4. dado T ∈ L(V ) existe (−T ) ∈ L(V ) tal que T + (−T ) = 0, quaisquerque sejam L, T, S ∈ L(V ).

(b) o “produto” (L, T ) 7−→ L ◦ T tem as propriedades:

1. (L ◦ T ) ◦ S = L ◦ (T ◦ S);

2. existe I ∈ L(V ) tal que I ◦ T = T ◦ I = T ;

3. (L+ T ) ◦ S = L ◦ S + T ◦ S e L ◦ (T + S) = L ◦ T + L ◦ S, quaisquerque sejam L, T, S ∈ L(V ).

Estrutura de Grupo de GL(V )

O conjunto GL(V ) dos automorfismos do espaço vetorial V é um subcon-junto de L(V ); se L, T ∈ GL(V ) vimos que L◦T e T−1 pertencem a GL(V ) ea identidade I de V também pertence a GL(V ). Portanto, GL(V ) munido daoperação (L, T ) 7−→ L ◦ T é um grupo, chamado grupo linear de V. GL(V )é o grupo dos elementos invertíveis do anel L(V ).

Estrutura de Álgebra de L(V )

Se V é um espaço vetorial sobre K, L(V ) está munido das leis:(1) adição: (L, T ) 7−→ L+ T ;(2) multiplicação por escalar: (a, T ) 7−→ aT ;(3) produto: (L, T ) 7−→ L ◦ T .

Para as leis (1) e (2), L(V ) tem uma estrutura de espaço vetorial sobreK. Para as leis (1) e (3), L(V ) tem uma estrutura de anel. Além disso, é fácilver que a(L ◦ T ) = (aL) ◦ T = L ◦ (aT ), quaisquer que sejam L, T ∈ L(V ) ea ∈ K. Vemos assim que L(V ) tem uma estrutura de álgebra (linear) sobreK, de acordo com a seguinte definição.

Definição 2.5 Sejam K um corpo a A um conjunto munido de uma adição,de uma multiplicação por escalar e de um produto. Dizemos que A é umaálgebra sobre K se:

Page 33: Algebra Linear

CAPÍTULO 2. APLICAÇÕES LINEARES 30

(1) A, munido da adição e da multiplicação por escalar, é um espaço vetorialsobre K.(2) A, munido da adição e do produto, é um anel.(3) a(L · T ) = (aL) · T = L · (aT ), quaisquer que sejam L, T ∈ A e a ∈ K.

Exemplo 2.3.1 O corpo C dos complexos é uma álgebra sobre R.

Exemplo 2.3.2 F(R,R) munido das leis f+g, f ·g, af é uma álgebra sobreR.

Exemplo 2.3.3 No espaço vetorial L(V ) consideremos o produto (L, T ) 7−→[L, T ] = L ◦ T − T ◦ L (colchete de Lie de L e T). É imediato que:(1)

[[L, T ], S

]=[L, [T, S]

](2) [L+ T, S] = [L, S] + [T, S] e [L, T + S] = [L, T ] + [L, S](3) [aL, T ] = [L, aT ] = a[L, T ], quaisquer que sejam L, T, S ∈ L(V ) e a ∈ K.Portanto o espaço L(V ), munido do produto (L, T ) 7−→ [L, T ], é uma álgebrasobre K, anotada gl(V ).

2.4 Exercícios do Capítulo 21. Sejam V1, V2 espaços vetoriais isomorfos entre si, bem como W1 e W2.

Prove que L(V1,W1) é isomorfo a L(V2,W2).

2. Sejam V, M espaços vetoriais sobre K, V = V1⊕ V2. Prove que L(V1⊕V2,W ) é isomorfo a L(V1,W )× L(V2,W ).

3. Seja V o espaço vetorial real das funções t 7−→ x(t) de [0, 1] em R,

de classe C∞. Consideremos em V os operadores x 7−→ f(x) =dx

dte

x 7−→ g(x) com g(x)(t) =

∫ t

0

x(u)du. Prove que se x(0) 6= 0 então

(g ◦ f)(x) 6= (f ◦ g)(x).

4. Sejam V um espaço vetorial e {v1, ..., vn} uma base de V. Prove que rvetores u1, ..., ur ∈ V , r ≤ n, são LI se, e só se, existe um automorfismoT de V tal que T (vj) = uj, 1 ≤ j ≤ r.

5. Sejam f : V → W linear e ϕ : V ×W → V ×W tal que ϕ(v, w) =(v, w − f(v)). Prove que ϕ é um automorfismo de V ×W .

6. Dois operadores lineares S, T ∈ L(V ) são semelhantes se existe opera-dor invertível P ∈ GL(V ) tal que S = P−1TP . Se V tem dimensãofinita, prove que operadores semelhantes têm o mesmo posto.

Page 34: Algebra Linear

CAPÍTULO 2. APLICAÇÕES LINEARES 31

7. Seja V um espaço vetorial de dimensão n sobre K. Para k = 1, 2, ..., n,exiba T : V → V linear tal que T k = 0 mas T j 6= 0 se j < k.

8. Sejam V e W espaços vetoriais de dimensão finita e T : V → W linear.Prove:(a) T é injetora ⇔ existe S : W → V linear tal que S ◦ T = idV(b) T é sobrejetora ⇔ existe S : W → V linear tal que T ◦ S = idW

9. Seja V um espaço vetorial de dimensão infinita enumerável de base(v1, v2, ..., vn, ...). Seja T : V → V o operador linear definido porT (v2k+1) = 0, T (v2k) = vk, k ∈ N.(a) Prove que T é sobrejetora mas não injetora.(b) Prove que existe S : V → V linear injetora, mas não sobrejetora,tal que T ◦ S = id.

10. Sejam V um espaço vetorial de dimensão finita, V ′ ⊂ V um subespaço,W um espaço vetorial, W ′ ⊂ W um subespaço, e T : V → W linear.Prove:(a) dim

(T (V ′)

)= dim V ′ − dim (N (T ) ∩ V ′)

(b) dim T−1(W ′) = dim N (T ) + dim (Im T ∩W ′).

11. E0, E1, ..., En sendo espaços vetoriais sobre o mesmo corpo K (n ≥ 2)dizemos que o diagrama

E0f0−→ E1 −→ ... −→ Ek−1

fk−1−−→ Ekfk−→ Ek+1 −→ ... −→ En−1

fn−1−−→ En

é uma sequência exata se para 0 ≤ k ≤ n− 2 tem-se N fk+1 = Im fk,as aplicações fk sendo lineares (0 ≤ k ≤ n − 1). Se E0 (resp. En) éigual a {0}, que escrevemos 0, não escreveremos f0 (resp. fn−1) pois sóexiste uma aplicação linear de 0 em E1 (resp. de En−1 em 0).(a) Prove:[0→ E

f−→ F é uma sequência exata ]⇔ f é injetora[E

f−→ F → 0 é uma sequência exata ]⇔ f é sobrejetora.(b) Prove que os diagramas seguintes são sequências exatas:

0→ Fi−→ E

j−→ E

F→ 0

0→ N f i−→ Ef−→ F

j−→ F

Im f→ 0

(f aplicação linear, i injeção canônica, j sobrejeção canônica).

Page 35: Algebra Linear

Capítulo 3

Matrizes

3.1 DefiniçõesDefinição 3.1 Sejam K um corpo, m e n inteiros positivos e In = {1, 2, ..., n}.Uma matriz m× n sobre K é uma função (i, j) ∈ Im × In 7−→ aij ∈ K. Emgeral os escalares aij são dispostos em m linhas e n colunas, o primeiro índiceindicando a linha e o segundo a coluna ocupadas por aij:

A =

a11 a12 ... a1n

a21 a22 ... a2n

... ... ... ...am1 am2 ... amn

= (aij), 1 ≤ i ≤ m, 1 ≤ j ≤ n

Os escalares aij são os elementos da matriz A = (aij). Observemos queduas matrizes, A = (aij) e B = (bij), ambas m × n, são iguais se, e só se,aij = bij para todo par (i, j).

A matriz zero, m× n, é a que tem todos seus elementos iguais a zero.A matriz A é quadrada quando o número de linhas é igual ao de colunas,

isto é, quando ela é do tipo n × n; n é a ordem da matriz quadrada A.Numa matriz quadrada os elementos aii, que têm os índices iguais, formama diagonal principal.

A matriz identidade (ou unidade) de ordem n é a matriz quadrada Inna qual todos os elementos da diagonal principal são iguais a 1 e os demais

iguais a zero. Por exemplo, I3 =

1 0 00 1 00 0 1

. O elemento genérico de In é o

32

Page 36: Algebra Linear

CAPÍTULO 3. MATRIZES 33

símbolo de Kronecker, definido por:

δij =

{1 se i = j0 se i 6= j

.

Assim, In = (δij)1≤i,j≤n.Vamos introduzir no conjunto Mm×n(K), das matrizes m × n sobre K,

uma estrutura vetorial. Para isto precisamos definir a adição de matrizes eo produto de uma matriz por um escalar.

Definição 3.2 Sejam A = (aij) e B = (bij) matrizes m × n. A soma C == A + B é a matriz m × n, C = (cij), tal que cij = aij + bij para todo par(i, j).

A adição matricial goza das seguintes propriedades de verificação imedi-ata:(1) A+B = B + A(2) A+ (B + C) = (A+B) + C(3) A+ 0 = A, onde 0 é a matriz zero m× n(4) A+ (−A) = 0 onde, sendo A = (aij), temos (−A) = (−aij).

Definição 3.3 Sejam c ∈ K e A = (aij) ∈ Mm×n(K). A matriz B = (bij),onde bij = c·aij para todo par (i, j), é o produto de c por A, anotado B = c·A.É claro que B ∈Mm×n(K).

A multiplicação de matriz por escalar tem as seguintes propriedades, defácil verificação:(1) 1 · A = A(2) c · (A+B) = c · A+ c ·B(3) (c+ d) · A = c · A+ d · A(4) c(d · A) = (cd) · A,quaisquer que sejam A,B ∈Mm×n(K) e c, d ∈ K.

Vemos assim que Mm×n, munido das leis de adição e de multiplicaçãopor escalar, é um espaço vetorial sobre K. Quando m = n escrevemos apenasMn(K) ou simplesmente Mn.

Vamos achar uma base para Mm×n(K). Para isso, consideremos as ma-trizes Eij, 1 ≤ i ≤ m, 1 ≤ j ≤ n, onde cada Eij é m × n e tem todos oselementos iguais a zero, exceto o situado na linha i e na coluna j, que é iguala um:

Page 37: Algebra Linear

CAPÍTULO 3. MATRIZES 34

Eij =

0 ... 0 ... 0... . . . ... . . . ...0 ... 1 ... 0... . . . ... . . . ...0 ... 0 ... 0

↑coluna j

← linha i

Proposição 3.1 O conjunto {E11, ..., E1n, ..., Em1, ..., Emn} é uma base deMm×n(K).

Dem. Se A = (aij) é m×n é claro que A =m∑i=1

n∑j=1

aijEij, ou seja, as matri-

zes Eij geram Mm×n(K). Além disso, elas são LI, pois sem∑i=1

n∑j=1

aijEij = 0,

então A = (aij) = 0, donde aij = 0 para todo par (i, j).

Corolário 3.1.1 dim Mm×n(K) = m · n.

3.2 Produto de MatrizesDefinição 3.4 Sejam A = (aij) – m × n – e B = (bij) – n × p, ou seja,o número de colunas de A é igual ao número de linhas de B. O produto

C = A ·B é a matriz m× p, C = (cij), tal que cij =n∑k=1

aikbkj.

Exemplo 3.2.1 (1 00 2

)(1 23 4

)=

(1 26 8

)(

1 23 4

)(1 00 2

)=

(1 43 8

)o que mostra que o produto não é comutativo.

Proposição 3.2 (a) (AB)C = A(BC)(b) A(B1 +B2) = AB1 + AB2; (A1 + A2)B = A1B + A2B

Page 38: Algebra Linear

CAPÍTULO 3. MATRIZES 35

(c) InA = AIn = A,onde se supõem definidos os produtos e somas (das matrizes) indicados, e em(c) A é m× n.

Dem. (a) Sejam: A = (aij) do tipo m× nB = (bij) do tipo n× pC = (cij) do tipo p× q

.

Então: AB = (dij) é m× p e (AB)C = (eij) é m× qBC = (fij) é n× q e A(BC) = (gij) é m× q,

ou seja, se o primeiro membro está definido, então o segundo também, eé do mesmo tipo.

Temos: eij =

p∑k=1

dikckj =

p∑k=1

ckj

n∑r=1

airbrk

gij =n∑r=1

airfrj =n∑r=1

air

p∑k=1

brkckj,

o que mostra que eij = gij para todo i e todo j. As demonstrações de (b)e (c) são deixadas a cargo do leitor.

3.3 Aplicação Linear × MatrizSejam V e W espaços vetoriais sobre o corpo K, E = (v1, ..., vn) e F =(w1, ..., wn) bases ordenadas de V e W, respectivamente, e T : V −→ Wlinear.

Se v = x1v1 + ...+ vnvn =n∑j=1

xjvj, T (v) = y1w1 + ...+ ymwm =m∑i=1

yiwi

e T (vj) =m∑i=1

aijwi, então:

T (v) =n∑j=1

xjT (vj) =n∑j=1

m∑i=1

aijxjwi.

Page 39: Algebra Linear

CAPÍTULO 3. MATRIZES 36

Portanto:

yi =n∑j=1

aijxj (i = 1, 2, ...,m)

Pondo:

[v]E =

x1

x2...xn

, [Tv]F =

y1

y2...ym

e[T]EF = (aij) 1 ≤ i ≤ m

1 ≤ j ≤ n

,

o sistema acima pode ser escrito na forma matricial[T (v)

]F =

[T]EF ·[v]E .

Assim, fixadas as bases ordenadas E e F , a toda aplicação linear T : V −→

W podemos associar uma matriz[T]EF = (aij) definida por T (vj) =

m∑i=1

aijwi,

ou seja,

[T]EF =

a11 a12 ... ain... ... ... ...am1 am2 ... amn

.[T]EF é a matrix de T em relação às bases E de V e F de W. Ela é do tipo

m× n e, para cada j, as componentes de T (vj) na base F formam a colunaj dessa matriz.

Reciprocamente, dada uma matriz m × n, A = (aij), consideremos os

vetores uj, i ≤ j ≤ m, definidos por uj =m∑i=1

aijwi. Seja T : V −→ W a

única aplicação linear tal que T (vj) = uj, 1 ≤ j ≤ n. Então é claro que[T]EF = A. Existe, pois, uma bijeção entre L(V,W ) eMm×n(K), bijeção esta

que depende da escolha das bases ordenadas E de V e F de W.

Exemplo 3.3.1 Sejam V um espaço vetorial sobre K e B = {v1, ..., vn} umabase de V. Sejam os operadores lineares I(v) = v e 0(v) = 0 para todo v ∈ V .É claro que

[I]BB

= In e[0]BB

= 0.

Exemplo 3.3.2 Seja V = Pn o espaço vetorial dos polinômios a uma va-riável e de grau menor que n, com coeficientes em K, juntamente com o

Page 40: Algebra Linear

CAPÍTULO 3. MATRIZES 37

polinômio zero. Sejam B = {1, t, ..., tn−1} base de V e D : V −→ V aaplicação derivada:

D(a0 + a1t+ ...+ an−1tn−1) = a1 + 2a2t+ ...+ (n− 1)an−1t

n−2.

Então:

[D]BB

=

0 1 0 ... 00 0 2 ... 0... ... ... ... ...0 0 0 ... n− 10 0 0 ... 0

Exemplo 3.3.3 Sejam I : R3 −→ R3 a identidade, E = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}e F = {(1, 0, 0), (1, 1, 0), (1, 1, 1)} bases de R3. Vamos achar

[I]EF .

Temos:

I(1, 0, 0) = (1, 0, 0); I(0, 1, 0) = (1, 1, 0)−(1, 0, 0); I(0, 0, 1) = (1, 1, 1)−(1, 1, 0).

Portanto: [I]EF =

1 −1 00 1 −10 0 1

Exemplo 3.3.4 Seja T : R3 −→ R3 definida por T (x, y, z) = (x+ y+ z, y+z, z). É claro que T é linear. Sejam E e F as bases do exemplo 3.3.3. Vamosachar

[T]EF e

[T]EE .

Temos: T (1, 0, 0) = (1, 0, 0); T (0, 1, 0) = (1, 1, 0); T (0, 0, 1) = (1, 1, 1).Portanto:

[T]EF =

1 0 00 1 00 0 1

= I3

E:

[T]EE =

1 1 10 1 10 0 1

Exemplo 3.3.5 Seja A = (aij) m×n sobre K. Seja TA : Kn −→ Km tal que

TA(X) = A ·X, onde X =

x1...xn

. É claro que TA é linear e que[T]EF = A,

onde E e F são as bases canônicas de Kn e Km, respectivamente.

Page 41: Algebra Linear

CAPÍTULO 3. MATRIZES 38

Exemplo 3.3.6 (Rotação)Sejam E = (e1, e2) a base canônica do R2 e F = (f1, f2) onde

f1 = cosα · e1 + sen α · e2f2 = −sen α · e1 + cosα · e2, α ∈ R .

Definamos T : R2 −→ R2 linear por meio de:

Te1 = f1

Te2 = f2

Então:

[T]EE =

[cos α −sen αsenα cos α

]A imagem de

(xy

)∈ R2 por T é o vetor

[cos α −sen αsenα cos α

](xy

)=

[x · cos α− y · sen αx · senα + y · cos α

]∈ R2.

A transformação linear T é a rotação de α em torno da origem.

Proposição 3.3 Sejam V e W espaços vetoriais sobre K, E = (v1, ..., vn) eF = (w1, ..., wn) bases ordenadas de V e W, respectivamente. A aplicaçãoT 7−→

[T]EF , que a cada elemento de L(V,W ) associa sua matriz em relação

às bases dadas, é um isomorfismo de L(V,W ) sobre Mm×n(K).

Page 42: Algebra Linear

CAPÍTULO 3. MATRIZES 39

Dem. Sejam T e S elementos de

L(V,W ), T (vj) =m∑i=1

aijwi, S(vj) =m∑i=1

bijwi,

isto é,[T]EF = (aij) e

[S]EF = (bij).

Como (T + S)(vj) =m∑i=1

(aij + bij)wi resulta que

[T + S

]EF = (aij + bij) 1 ≤ i ≤ m

1 ≤ j ≤ n

=[T]EF +

[S]EF .

Se c ∈ K temos (cT )(vj) =m∑i=1

caijwi, isto é,[cT]EF = (caij) = c ·

[T]EF .

Portanto, a aplicação T 7−→[T]EF é linear (e bijetora), ou seja, um

isomorfismo.

Corolário 3.3.1 dim L(V,W ) = dim V · dim W .

Proposição 3.4 Sejam U, V, W espaços vetoriais sobre K, E = (u1, ..., um),F = (v1, ..., vn) e G = (w1, ..., wp) bases ordenadas de U, V, W, respectiva-mente. Se U S−→ V

T−→ W são lineares, então:[T ◦ S

]EG =

[T]FG ·[S]EF .

Dem. Sejam: [T]FG = (aij) – p× n

[S]EF = (bij) – n×m[

T ◦ S]EG = (cij) – p×m

Então:

Page 43: Algebra Linear

CAPÍTULO 3. MATRIZES 40

T (vk) =

p∑i=1

aikwi

S(uj) =n∑k=1

bkjvk

(T ◦ S)(uj) =

p∑i=1

cijwi

Portanto:

T(S(uj)

)=

n∑k=1

bkjT (vk) =n∑k=1

p∑i=1

aikbkjwi,

donde:

cij =n∑k=1

aikbkj,

que é a tese.O conjunto Mn(K) das matrizes de ordem n, munido das leis de adição

e multiplicação por escalar, é um espaço vetorial sobre K de dimensão n2.Mn(K), munido das operações de adição e multiplicação matriciais, é umanel (com unidade). Além disso, é fácil verificar que

c(AB) = (cA)B = A(cB)

quaisquer que sejam A,B ∈ Mn(K) e c ∈ K. Resulta que Mn(K) tem umaestrutura de álgebra sobre K. Vimos que o anel Mn(K) não é comutativo; oexemplo [

1 00 0

] [0 00 1

]=

[0 00 0

]mostra que ele tem divisores de zero.

Seja V um espaço vetorial sobre K, de dimensão n. Vimos que L(V )e Mn(K) são duas álgebras sobre K. Fixada uma base B de V, a aplicaçãobijetora T ∈ L(V )

φ7−→[T]BB∈Mn(K) goza das seguintes propriedades:

(1)[L+ T

]BB

=[L]BB

+[T]BB, isto é, φ(L+ T ) = φ(L) + φ(T )

(2)[aT]BB

= a[T]BB, isto é, φ(aT ) = a · φ(T )

(3)[L ◦ T

]BB

=[L]BB·[T]BB, isto é, φ(L ◦ T ) = φ(L) · φ(T ), quaisquer que

sejam L, T ∈ L(V ) e a ∈ K.

Page 44: Algebra Linear

CAPÍTULO 3. MATRIZES 41

Uma tal φ chama-se um isomorfismo de álgebras, ou seja, L(V ) e Mn(K)são álgebras isomorfas.

Exemplo 3.3.7 Vamos achar o centro do anel Mn(K), isto é, vamos de-terminar as matrizes A = (aij) de Mn(K) que comutam com toda ma-triz P = (pij) de Mn(K), ou seja, tais que AP = PA. Devemos tern∑k=1

aikpkj =n∑k=1

pikakj para todo par (i, j). Se P = Eii, isto é, pii = 1 e

prs = 0 para r 6= i ou s 6= i, então i 6= j implica aij = 0. Se P = Eij comi 6= j, isto é, pij = 1 e prs = 0 para r 6= i ou s 6= j, então aii = ajj. Logo, seA comuta com toda matriz de Mn(K) ela é da forma A = a · In, e é evidenteque toda matriz a · In, a ∈ K, comuta com toda matriz de Mn(K). Estasmatrizes têm o nome de matrizes escalares.

Definição 3.5 Uma matriz quadrada A, n×n, é invertível se existe matrizquadrada B, de mesma ordem, tal que AB = BA = In.

Se uma tal matriz B existe, ela é única, pois se AC = In e BA = In,temos: B = B · In = B(AC) = (BA)C = In · C = C. esta matriz B, casoexista, chama-se a inversa de A, e é anotada B = A−1. Assim,

A · A−1 = A−1 · A = In,

o que mostra também que (A−1)−1 = A.Se A e B, ambas n× n, são invertíveis, então AB é invertível e

(AB)−1 = B−1A−1.

De fato, (AB)(B−1A−1) = A(BB−1)A−1 = A ·A−1 = In e (B−1A−1)(AB) =B−1(A−1 · A)B = B−1B = In. É claro que I−1

n = In.Vemos assim que o conjunto das matrizes invertíveis de Mn(K), com

a operação de multiplicação matricial, é um grupo. O isomorfismo φ :L(Kn) −→ Mn(K) visto acima, transforma o grupo GL(Kn) = GL(n,K)isomorficamente sobre o grupo das matrizes invertíveis de Mn(K). Em par-ticular, [

T−1]BB

=([T]BB

)−1

.

Exemplo 3.3.8 Seja A, de ordem n, tal que a0In + a1A + ... + anAn = 0

com a0 6= 0. Então A é invertível.De fato, temos:(−a1

a0

In − ...−ana0

An−1

)· A = A ·

(−a1

a0

In − ...−ana0

An−1

)= In.

Logo, A−1 = −a1

a0

· In − ...−ana0

· An−1

Page 45: Algebra Linear

CAPÍTULO 3. MATRIZES 42

Proposição 3.5 Seja A ∈ Mn(K). Se existe B ∈ Mn(K) tal que BA = In(ou AB = In), então A é invertível e B = A−1.

Dem. Sejam TA : Kn −→ Kn e TB : Kn −→ Kn as aplicações linearesassociadas a A e B, respectivamente. BA = In equivale a TB · TA = idKn,que implica ser TA injetora e TB sobrejetora e, portanto, ambas são bijetorase TB = T−1

A , donde A−1 = B.

Exercícios1. Dê uma base para M3(K).

2. Seja W o subespaço de Mn(K) formado pelas martrizes cujos elemen-tos são iguais a zero, exceto talvez os da diagonal principal. Qual adimensão de W?

3. Seja A ∈ Mn(R). A = (aij) é simétrica (resp. antissimétrica) se aij =aji (resp. aij = −aji) para todo (i, j). Ache uma base para o espaçodas matrizes simétricas (resp. antissimétricas) 3× 3.

4. Seja T : R4 −→ R2 dada por T (x1, x2, x3, x4) = (x2, x4). Ache umamatriz associada a T.

5. Sejam E =((1, 1, 0), (−1, 1, 1), (0, 1, 2)

)e F =

((2, 1, 1), (0, 0, 1), (1, 1, 1)

)bases de C3. Ache

[I]EF , onde I : C3 −→ C3 é a identidade.

6. Seja V o subespaço de F(R,R) = {f : R −→ R} gerado pelas funções1, t, et, e2t, te2t e seja D : V −→ V o operador de derivação. SeB = (1, t, et, e2t, te2t) é base de V, ache

[D]BB.

7. Estabeleça um isomorfismo entre o espaço vetorial real das matrizessimétricas n × n e o espaço das matrizes reais triangulares inferiores(aij = 0 se i < j). Idem entre as matrizes antissimétricas e as triangu-lares inferiores com a diagonal principal nula.

3.4 Mudança de BasesSejam V um espaço vetorial sobre K, E = (v1, ..., vn) e F = (w1, ..., wn) basesordenadas de V. Se v ∈ V , então

[v]E = P ·

[v]F , onde P =

[I]FE = (pij) é

tal que wj =n∑i=1

pijvi.

Page 46: Algebra Linear

CAPÍTULO 3. MATRIZES 43

Definição 3.6 P =[I]FE é a matriz de passagem da base E para a base F .

Exemplo 3.4.1 Sejam V = R3, E = (e1, e2, e3) – base canônica, F =((1,−1, 1), (1, 0, 0), (1, 1, 1)

)= (f1, f2, f3). Então:

P =[I]FE =

1 1 1−1 0 11 0 1

.Se v = 2f1 + f2 + 3f3, então

[v]E =

1 1 1−1 0 11 0 1

213

=

615

, isto é,

v = 6e1 + e2 + 5e3.

Proposição 3.6 Sejam V e W espaços vetoriais sobre K,

E = (v1, ..., vn), E ′ = (v′1, ..., v′n)

bases ordenadas de V,

F = (w1, ..., wm), F ′ = (w′1, ..., w′m)

bases ordenadas de W,P =

[idv]E ′E

a matriz de passagem de E para E ′, Q =[idW

]F ′F a matriz de passagem de F

para F ′.Se T : V −→ W é linear, então:[

T]E ′F ′ = Q−1 ·

[T]EF · P.

Dem. Temos T = idW · T · idV . Pela proposição 3.3, vem:[T]E ′F ′ =

[idW

]FF ′ ·[T]EF ·[idV]E ′E

Mas:In =

[idW

]F ′F ′ =

[idW

]FF ′ ·[idW

]F ′F

eIn =

[idW

]FF =

[idW

]F ′F ·[idW

]FF ′ ,

o que mostra que[idW

]FF ′ = Q−1. Resulta:[

T]E ′F ′ = Q−1 ·

[T]EF · P

Page 47: Algebra Linear

CAPÍTULO 3. MATRIZES 44

Corolário 3.6.1 Sejam V um espaço vetorial sobre K, E e E ′ bases de V eP =

[idV]E ′E a matriz de passagem de E para E ′. Se T : V −→ V é linear,

então: [T]E ′E ′ = P−1 ·

[T]EE · P

Definição 3.7 Dizemos que as matrizes A,B ∈ Mm×n(K) são equivalentesse existem matrizes Q ∈ GL(m,K) e P ∈ GL(n,K) tais que B = QAP .

Obs.: A proposição 3.6 nos diz que se A e B são matrizes associadas àmesma aplicação linear T : V −→ W , então A e B são equivalentes. Re-ciprocamente, suponhamos A e B equivalentes, isto é, B = QAP ondeA,B ∈Mm×n(K), P ∈ GL(n,K) e Q ∈ GL(m,K).Sejam E = (v1, ..., vn) e F = (w1, ..., wm) bases ordenadas dos espaços ve-toriais V e W e T : V −→ W linear tal que A =

[T]EF . Definamos

E ′ = (v′1, ..., v′n) e F ′ = (w′1, ..., w

′m) por v′j =

n∑i=1

pijvi e w′j =m∑i=1

qijwi,

onde P = (pij) e Q−1 = (qij).Como P e Q são invertíveis, E ′ e F ′ são bases de V e W, respectivamente,P =

[idV]E ′E e Q−1 =

[idW

]F ′F .

Pela proposição 3.6, temos:[T]E ′F ′ = QAP, isto é, B =

[T]E ′F ′ ,

o que mostra que A e B representam a mesma aplicação linear T : V −→ W .

Definição 3.8 Dizemos que as matrizes A,B ∈ Mn(K) são semelhantes seexiste P ∈ GL(n,K) tal que B = P−1 · A · P . Como na observação, acimaé fácil ver que A,B ∈ Mn(K) são semelhantes se, e só se, elas representamum mesmo operador linear T : V −→ V , onde dimK V = n.

Obs.: É fácil verificar que as relações “A e B são equivalentes” e “A e Bsão semelhantes”, são relações de equivalência (isto é, reflexivas, simétricase transitivas).

Exemplo 3.4.2 Seja T : R3 −→ R3, T (x1, x2, x3) = (x1 + 2x3, 3x1 + 2x2 +x3, x2+4x3) e sejam E = (e1, e2, e3) – base canônica e F =

((1, 0, 0), (1, 1, 0), (1, 1, 1)

)bases de R3.

Page 48: Algebra Linear

CAPÍTULO 3. MATRIZES 45

Temos:

T (1, 0, 0) = (1, 3, 0)T (0, 1, 0) = (0, 2, 1)T (0, 0, 1) = (2, 1, 4)

Portanto:

[T]EE =

1 0 23 2 10 1 4

= A.

Por outro lado, se F = (f1, f2, f3), temos:

T (f1) = (1, 3, 0) = −2f1 + 3f2

T (f2) = (1, 5, 1) = −4f1 + 4f2 + f3

T (f3) = (3, 6, 5) = −3f1 + f2 + 5f3

Portanto: [T]FF =

−2 −4 −33 4 10 1 5

= B.

A matriz de passagem de E para F é P =[I]FE , ou seja, P =

1 1 10 1 10 0 1

, eé imediato verificar que

AP = PB =

1 1 33 5 60 1 5

, isto é, B = P−1 · A · P.

Posto de uma Matriz

Seja A = (aij) matriz m × n sobre K. Os vetores-coluna de A são osvetores A1, ..., An ∈ Km definidos por

Aj =

aija2j...amj

(1 ≤ j ≤ n)

Definição 3.9 O posto de uma matriz A é a dimensão do subespaço de Km

gerado pelos vetores-coluna de A, ou seja, o posto de A é o número máximode vetores-coluna de A linearmente independentes.

Page 49: Algebra Linear

CAPÍTULO 3. MATRIZES 46

Proposição 3.7 Sejam V, W espaços vetoriais sobre K, E = (v1, ..., vn) eF = (w1, ..., wm) bases ordenadas de V e W, respectivamente, e T : V −→ W

linear. Se A =[T]EF , então:

posto(A) = posto(T ).

Dem. Seja A = (aij). Dizer que A =[T]EF significa dizer que T (vj) =

m∑i=1

aijwi, ou seja, Aj =[T (vj)

]F (j = 1, ..., n), e o isomorfismo de Km

sobre W que leva a base canônica de Km na base F de W, transforma oespaço gerado pelos vetores-coluna A1, ..., An de A sobre o espaço gerado pelosvetores T (v1), ..., T (vn) de W, ou seja, estes espaços têm a mesma dimensãoe, portanto, posto(A) = posto(T ).

Proposição 3.8 Seja A ∈ Mm×n(K) de posto r. Então r ≤ m, r ≤ n e Aé equivalente à matriz m× n:

Figura 3.1: Matriz equivalente

Dem. Seja T : Kn −→ Km linear tal que A =[T]EF , onde E e F são as

bases canônicas de Kn e Km, respectivamente.Como n = dim N (T ) + dim Im T temos que dim N (T ) = n − r ≥ 0.

Podemos, então, escolher uma base E ′ = (v1, ..., vn) de Kn de modo que(vr+1, ..., vn) seja base de N (T ). É claro que os vetores T (v1), ..., T (vr) sãoLI em Km (verifique!), donde r ≤ m e podemos considerar uma base de Km

da forma F ′ = (Tv1, ..., T vr, wr+1, ..., wm). Obtemos:[T]E ′F ′ = matriz da figura 3.1.

Resulta que A =[T]EF é equivalente a B = matriz da figura 3.1 :

B = QAP, Q =[id]FF ′ , P =

[id]E ′E .

Page 50: Algebra Linear

CAPÍTULO 3. MATRIZES 47

Corolário 3.8.1 Duas matrizes A,B ∈ Mm×n(K) são equivalentes se, e sóse, elas têm o mesmo posto.

Dem. Se A e B são equivalentes, elas representam, em relação a basesdiferentes, a mesma aplicação linear T : Kn −→ Km. Portanto,

posto(A) = posto(T ) = posto(B).

Reciprocamente, se posto(A) = posto(B) = r, então A e B são equivalen-tes à matriz da figura 3.1 e, portanto, elas são equivalentes.

Corolário 3.8.2 A matriz A ∈Mm×n(K) é invertível se, e só se,

posto(A) = n.

Dem. A matriz A representa um operador linear

T : Kn −→ Km e posto(T ) = posto(A) = n

se, e só se, T é sobrejetora (donde bijetora), isto é, se, e só se, T ∈ GL(n,K)e, portanto, se, e só se, A é invertível.

3.5 Exercícios do Capítulo 3

1. Obtenha bases E de R2 e F de R3 de modo que[T]EF =

1 00 10 0

, ondeT

(xy

)=

2x+ y3x− 2yx+ 3y

.2. Calcule o posto das matrizes:

A =

1 2 34 5 67 8 9

; B =

1 2 34 5 62 1 0

.Mostre que os espaços gerados pelas linhas e colunas de A coincidem,o que não ocorre com B.

Page 51: Algebra Linear

CAPÍTULO 3. MATRIZES 48

3. Seja a matriz n× n cujas linhas são os vetores

v1 = (1, 2, ..., n), v2 = (2, 3, ..., n, n+ 1), etc.

Prove que o posto da matriz é 2 e que o espaço-linha coincide com oespaço-coluna.

4. Ache reais a, b, c tais que ax + by + cz = 0 seja o plano gerado pelas

linhas da matriz

1 1 21 2 31 3 4

.5. Prove que toda matriz antissimétrica 3 × 3 não-nula tem posto 2. Dê

exemplo de uma matriz antissimétrica invertível 4× 4.

6. Sejam V um espaço vetorial de dimensão n sobre K e T : V −→ Vlinear. T é nilpotente de índice p se existe p ∈ N tal que T p−1 6= 0 eT p = 0.(a) Prove que se T é nilpotente e existem λ ∈ K, x ∈ V, x 6= 0 taisque T (x) = λx, então λ = 0.(b) Prove que se T é nilpotente de índice p e T p−1(x) 6= 0, então osvetores x, T (x), ..., T p−1(x) são LI.(c) T é nilpotente de índice n ⇔ existe base E de V tal que na matrizA =

[T]EE = (aij) – n× n – se tenha aij = 0 exceto ai,i+1 = 1 (1 ≤ i ≤

n− 1).

7. Seja A =

1 1 00 1 10 0 1

; ache An, n ∈ N.

8. Prove que[cos θ −sen θsen θ cos θ

]e[eiθ 00 e−iθ

]são semelhantes sobre C.

9. Seja A = (aij) − n × n. O traço de A é o número tr(A) =n∑i=1

aii.

Prove que tr : Mn(K) −→ K é linear, que tr(AB) = tr(BA), eque tr(P−1AP ) = tr(A), quaisquer que sejam A,B ∈ Mn(K) e P ∈GL(n,K).

10. Sejam T : M2(R) −→ M2(R) tal que T (A) = PA, onde P ∈ M2(R) éfixa. Prove que tr(T ) = 2tr(P ).

Page 52: Algebra Linear

Capítulo 4

Formas Lineares. Dualidade

4.1 DefiniçãoSeja V um espaço vetorial sobre o corpo K. Considerando K um espaçovetorial sobre si mesmo, L(V,K) é um espaço vetorial sobre K, designadopor V ∗ e chamado de dual de V; seus elementos são chamados de formas (oufuncionais) lineares em V. O dual de V ∗ é o bidual de V, anotado V ∗∗. Oselementos de V ∗ serão designados por letras gregas tais como α, β, ω, etc.Assim, uma forma linear ω ∈ V ∗ é uma aplicação linear ω : V −→ K.

Se E = {v1, ..., vn} é uma base de V e se v = x1v1+...+xnvn, então ω(v) =x1ω(v1) + ... + xnω(vn). Pondo ω(vi) = ai, temos: ω(v) = a1x1 + ... + anxn,que é a representação de ω na base E .

Exemplo 4.1.1 Se V = Kn, a aplicação πi(x1, ..., xn) 7−→ xi (1 ≤ i ≤ n) éuma forma linear em Kn, chamada a i-ésima forma coordenada.

Exemplo 4.1.2 Se V = C0([0, 1],R) é o espaço vetorial real das funções

contínuas f : [0, 1] −→ R a função f ∈ V 7−→∫ 1

0

f(t)dt ∈ R é uma forma

linear em V.

Proposição 4.1 Sejam V um espaço vetorial sobre K e (v1, ..., vn) uma baseordenada de V. Para cada i, 1 ≤ i ≤ n, seja ωi : V −→ K a forma linear

definida por ωi(vj) = δij =

{1 se i = j0 se i ≤ j

(1 ≤ i ≤ n).

Então, (ω1, ..., ωn) é uma base de V ∗ e as coordenadas de ω ∈ V ∗ nestabase, são ω(v1), ..., ω(vn).

Dem. Sabemos que dim V ∗ = dim L(V,K) = n e que as condições ωi(vj) =δij (j = 1, ..., n) determinam univocamente a forma ωi. Basta então provar

49

Page 53: Algebra Linear

CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 50

que ω1, ..., ωn são LI. Para isso, suponhamos que ω = a1ω1 + ...+ anωn = 0.

Então, para j = 1, ..., n, temos ω(vj) = 0, ou seja,n∑i=1

aiωi(vj) = 0, ou

n∑i=1

aiδij = 0, donde aj = 0. Este cálculo mostra também que se

ω = a1ω1 + ...+ anωn, então aj = ω(vj)

.

Definição 4.1 Se (v1, ..., vn) é base ordenada de V, a base (ω1, ..., ωn) de V ∗,tal que ω(vj) = δij (1 ≤ j ≤ n), chama-se base dual da base (v1, ..., vn).

Exemplo 4.1.3 Sejam V = Kn e (e1, ..., en) a base canônica de Kn. Sejaπi : Kn −→ K a i-ésima forma coordenada, isto é, πi(x1, ..., xn) = xi. Éclaro que πi(ej) = δij, de modo que a base dual da base canônica de Kn é abase (π1, ..., πn) de (Kn)∗.Obs. Se V e W têm a mesma dimensão finita sobre K, a escolha de basesE de V e F de W nos permite definir um isomorfismo que leva E sobre F ,e todo isomorfismo entre V e W é obtido dessa forma. Assim, em geral, hámais de um isomorfismo entre V e W e não temos uma maneira natural parapreferir um ou outro desses isomorfismos. Entretanto, no caso de V e V ∗∗,podemos distinguir um isomorfismo J : V −→ V ∗∗ definido independente daescolha de bases, isto é, um isomorfismo canônico, que nos permite identificarV a V ∗∗.

Proposição 4.2 Seja V um espaço vetorial de dimensão finita n sobre K.A aplicação canônica

J : V −→ V ∗∗

v 7−→ Jv : V ∗ −→ Kω 7−→ ω(v)

é um isomorfismo entre V e V ∗∗.

Dem. É fácil verificar que Jv = J(v) é um elemento de V ∗∗, bem como que Jé linear. Basta então provar que J é injetora, já que dim V = dim V ∗∗ = n.Para isto, seja v 6= 0; tomemos uma base de V da forma (v, v1, ..., vn−1) e

Page 54: Algebra Linear

CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 51

consideremos a base dual correspondente (ω, ω1, ..., ωn−1). Então, ω(v) = 1 =Jv(ω), ou seja, Jv 6= 0. Assim, v 6= 0 implica Jv 6= 0, o que mostra ser Jinjetora.Obs. (1) Identificando-se v ∈ V a Jv ∈ V ∗∗, a igualdade Jv(ω) = ω(v) seescreve v(ω) = ω(v), e é usual usar-se a notação < v, ω > para este escalar.(2) No caso em que V é de dimensão infinita, prova-se que J : V −→ V ∗∗ éinjetora, mas nunca sobrejetora, ou seja, J não é um isomorfismo neste caso.

Exercícios

1. Sejam B1 = (v1, ..., vn), B2 = (u1, ..., un) bases do espaço vetorial V,B∗1 = (α1, ..., αn) e B∗2 = (β1, ..., βn) as bases duais correspondentes.

Se vj =n∑i=1

aijui e αj =n∑i=1

bijβi, i ≤ j ≤ n, qual a relação entre as

matrizes A = (aij)eB = (bij)?

2. Estude a independência linear das formas lineares sobre R4, onde ab 6=0:

f1(x1, x2, x3, x4) = x1 − ax3,

f2(x1, x2, x3, x4) = x2 −1

ax4,

f3(x1, x2, x3, x4) = x1 − bx4,

f4(x1, x2, x3, x4) = x2 −1

bx4.

3. Sejam V um espaço vetorial de dimensão finita eW ⊂ V um subespaço.Se f ∈ W ∗ mostre que existe g ∈ V ∗ tal que g|W = f .

4. Sejam V um espaço vetorial real de dimensão finita, e v1, v2, ..., vp ve-tores não nulos de V. Prove que existe f ∈ V ∗ tal que f(vi) 6= 0, i =1, 2, ..., p.

5. Seja f : V −→ R uma forma linear não-nula. Prove que existe v0 ∈ Vtal que f(v0) = 1. Seja W = Rv0 a reta gerada por v0. Prove queV = W ⊕N (f).

6. Sejam f, g : V −→ R formas lineares não-nulas e dim V = n. Proveque N (f) = N (g)⇔ f é múltiplo de g.

Page 55: Algebra Linear

CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 52

4.2 Anulador de um SubespaçoDefinição 4.2 Sejam V um espaço vetorial sobre K e U ⊂ V um subespaço.Chama-se anulador de U ao conjunto U0 = {ω ∈ V ∗; ω(u) = 0 para todou ∈ U}. É fácil ver que U0 ⊂ V ∗ é um subespaço.

Se ω ∈ V ∗ pode-se mostrar sem dificuldade que ω ∈ U0 se, e só se, ω seanula numa base de U.

Proposição 4.3 Sejam V um espaço vetorial de dimensão finita sobre K eU ⊂ V um subespaço. Então:

dim U + dim U0 = dim V.

Dem. Como o caso U = {0} é trivial, vamos supor U 6= {0}. Seja (v1, ..., vn)base de V tal que (v1, ..., vp) seja base de U. Se (ω1, .., ωn) é a base dual, então< vj, ωi >= ωi(vj) = 0 para i = 1, ..., p e i = p + 1, ..., n, ou seja, as formasωp+1, ..., ωn pertencem a U0. Vamos provar que elas formam uma base de U0.Como elas são LI, basta provar que elas geram U0. Para isto, seja ω ∈ U0.Se ω = a1ω1 + ...+ anωn, então, para j = 1, ..., p temos:

0 = ω(vj) =n∑i=1

aiωi(vj) =n∑i=1

aiδij = aj,

ou seja, ω = ap+1ωp+1 + ...+ anωn, como queríamos.

Corolário 4.3.1 Nas hipóteses da proposição 4.3, temos (U0)0 = U (supondo-se identificados V e V ∗∗).

Dem. (U0)0 = {v ∈ V ;< ω, v >= 0 ∀ω ∈ U0}. Portanto, se u ∈ U , entãou ∈ (U0)0, isto é, U ⊂ (U0)0.

Por outro lado,

dim (U0)0 = dim V ∗ − dim U0 = dim V − dim U0 = dim U,

donde U=(U0)0.Obs. Se ω ∈ V ∗, ω 6= 0, o subespaço de V, H = {v ∈ V ;< ω, v >= 0}, temdimensão igual a (dim V − 1) e chama-se um hiperplano de V.

Exemplo 4.2.1 Seja W o subespaço de R4 gerado pelos vetores v1 = (1, 2, 0, 1), v2 =(2, 1, 3, 0) e v3 = (0, 3,−3, 2). Vamos achar uma base para o anulador W 0.

Page 56: Algebra Linear

CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 53

Se (v, y, z, t) ∈ R4 e ω ∈ (R4)∗, então ω(x, y, z, t) = ax + by + cz + dt,onde a, b, c, d ∈ R, e ω ∈ W 0 se, e só se, ω(v1) = ω(v2) = ω(v3) = 0, ou seja,se e só se,

{ a+ 2b+ d = 02a+ b+ 3c = 0

3b− 3c+ 2d = 0se, e só se,

{a = −2c+

d

3

b = c− 2d

3

.

Resulta que ω1 e ω2, tais que ω1(x, y, z, t) = −2x+ y + z, ω2(x, y, z, t) =x − 2y + 3t, formam uma base de W 0 (obtidas fazendo-se c = 1, d = 0 ec = 0, d = 3, respectivamente).

Exemplo 4.2.2 Seja V um espaço vetorial de dimensão n sobre K. Todosubespaço W de V é a interseção de um número finito de hiperplanos de V.De fato, seja (v1, ..., vn) base de V tal que (v1, ..., vp) seja base de W. Seja(ω1, ..., ωn) a base dual de (v1, ..., vn). Então:

v ∈ W ⇔ ωp+1(v) = ... = ωn(v) = 0,

ou seja, W =n⋂

j=p+1

Hj, onde Hj = N (ωj) é o hiperplano definido por ωj.

Exercícios

1. SejaW ⊂ R5 o subespaço gerado pelos vetores ω1 = (2,−2, 3, 4,−1), ω2 =(−1, 1, 2, 5, 2) ω3 = (0, 0,−1,−2, 3) e ω4 = (1,−1, 2, 3, 0). Ache umabase para o anulador W 0 de W.

2. Sejam V um espaço vetorial de dimensão finita sobre K, U e W subes-paços de V. Prove:(a) (U +W )0 = U0 ∩W 0; (U ∩W )0 = U0 +W 0

(b) V = U ⊕W ⇒ V ∗ = U0 ⊕W 0.

4.3 TransposiçãoSejam V, W espaços vetoriais sobre K e T : V −→ W linear. Se β ∈ W ∗

então β ◦ T : V −→ K é linear, isto é, β ◦ T ∈ V ∗.

Definição 4.3 A aplicação T t : W ∗ −→ V ∗ definida por T t(β) = β ◦ T paratoda β ∈ W ∗, chama-se a transposta de T:

Page 57: Algebra Linear

CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 54

Assim, < T t(β), v >=< β, T (v) > para todo v ∈ V .

Proposição 4.4 A transposta T t : W ∗ −→ V ∗ da aplicação linear T : V −→W , é uma aplicação linear.

Dem.

T t(α + β) = (α + β) ◦ T = α ◦ T + β ◦ T = T t(α) + T t(β)

T t(aβ) = (aβ) ◦ T = a(β ◦ T ) = aT tβ,

quaisquer que sejam α, β ∈ W ∗ e a ∈ K.

Exemplo 4.3.1 Se V = W e T = idV , então:

(idV )t(β) = β ◦ idV = β para todo β ∈ V ∗,

ou seja, (idV )t = idV ∗.

Proposição 4.5 Sejam U, V, W espaços vetoriais sobre K.(a) A aplicação T ∈ L(U, V ) 7−→ T t ∈ L(V ∗, U∗) é linear.(b) Se T ∈ L(U, V ) e S ∈ L(V,W ), então (S ◦ T )t = T t ◦ St. Além disso, seT é bijetora então T t é bijetora e (T−1)t = (T t)−1.(c) Se U e V têm dimensão finita, então T 7−→ T t é um isomorfismo entreL(U, V ) e L(V ∗, U∗) e (T t)t = T (supondo-se identificados U com U∗∗ e Vcom V ∗∗).

Dem. (a) Sejam L, T ∈ L(U, V ) e a ∈ K. Para todo β ∈ V ∗ temos:(L+ T )t(β) = β ◦ (L+ T ) = β ◦ L+ β ◦ T = Lt(β) + T t(β)(aT )t(β) = β ◦ (aT ) = a(β ◦ T ) = aT t(β)Resulta: (L+ T )t = Lt + T t e (aT )t = a · T t.

Page 58: Algebra Linear

CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 55

(b) (S◦T )t(ω) = ω◦(S◦T ) = (ω◦S)◦T = T t(ω◦S) = T t(St(ω)

)= (T t◦St)(ω)

para todo ω ∈ W ∗. Logo: (S ◦ T )t = T t ◦ St.Se T é um isomorfismo temos T ◦ T−1 = idV , T

−1 ◦ T = idV e, como(idV )t = idV ∗, vem:

T t ◦ (T−1)t = idU∗ e (T−1)t ◦ T t = idV ∗ ,

donde resulta que (T t)−1 = (T−1)t.(c) Se U e V têm dimensão finita, podemos identificar U com U∗∗ e V comV ∗∗, de modo que (T t)t ∈ L(U, V ). Se u ∈ U e β ∈ V ∗, então:

< (T t)tu, β >=< u, T t(β) >=< β, T (u) >,

donde (T t)t = T . Resulta que T 7−→ T t é sobrejetora e, como L(U, V ) eL(V ∗, U∗) têm a mesma dimensão finita, esta aplicação é um isomorfismo.

Proposição 4.6 Seja T : V −→ W linear. Então: (Im T )0 = N (T t).

Dem. ω ∈ (Im T )0 ⇔< ω, T (v) >= 0 ∀v ∈ V ⇔< v, T t(ω) >= 0∀v ∈ V ⇔ T t(ω) = 0⇔ ω ∈ N (T t).

Proposição 4.7 Sejam V e W espaços vetoriais de dimensão finita sobre Ke T : V −→ W linear. Então:

posto(T ) = posto(T t).

Dem. Sejam n = dim V, p = dim W . Como (Im T )0 = N (T t) temos:posto(T t) = dim W ∗ − dim N (T t) = dim W ∗ − dim (Im T )0 == dim W ∗ − (dim W ∗ − dim Im T ) = dim Im T = posto(T ).

Proposição 4.8 Sejam V e W espaços vetoriais de dimensão finita sobreK, E = (v1, ..., vn) base de V, F = (w1, ..., wm) base de W, E∗ = (α1, ..., αn)e F∗ = (β1, ..., βm) as bases duais correspondentes. Se T : V −→ W é lineare[T]EF = A = (aij), então

[T t]F∗E∗ = B = (bij) é tal que bij = aji para todo

par (i, j).

Dem. Temos:

T (vj) =m∑i=1

aijwi e βj ◦ T = T t(βj) =n∑i=1

bijαi.

Page 59: Algebra Linear

CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 56

Então:

βj(T (vk)

)=

m∑i=1

aikβj(wi) =m∑i=1

aikδji = ajk.

E:

βj(T (vk)

)=

n∑i=1

bijα(vk) =n∑i=1

bijδik = bkj.

Portanto:ajk = bkj (j = 1, ...,m; k = 1, ..., n).

Definição 4.4 Seja A = (aij) m × n sobre K. A matriz B = (bij) n × msobre K, tal que bij = aji para todo par (i, j), chama-se a transposta de A,anotada B = At.

A proposição 4.8 nos diz que[T t]F∗E∗ =

([T]EF

)t.

Corolário 4.8.1 (a) Se A,B ∈Mm×n(K) e c ∈ K, então:

(A+B)t = At +Bt

(cA)t = c · At

(b) Se A ∈Mm×n(K) e B ∈Mn×p(K), então:

(AB)t = Bt · At

(c) Se A ∈Mn(K) é invertível, então:

(A−1)t = (At)−1

(d) Se A ∈Mm×n(K), então:

posto(A) = posto(At),

ou seja, o número de vetores-coluna de A linearmente independentes coincidecom o número de vetores-linha de A linearmente independentes.

Dem. Imediata.

Page 60: Algebra Linear

CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 57

4.4 Exercícios do Capítulo 41. Em V = R4 consideremos o subespaço W gerado por

(1, 1, 1, 1); (−1, 1,−2, 2); (−1, 5,−4, 8) e (−3, 1,−5, 3).

(a) Ache a dimensão de W e a dimensão de W 0.(b) Mostre que a imagem de v = (x, y, z, t) ∈ V por f ∈ W 0 pode seescrever f(v) = 4ax+ 4by − (3a+ b)z − (a+ 3b)t.(c) Ache uma base (f1, f2) de W 0, e escreva f1 e f2 na base dual dabase canônica de V.

2. Seja V um espaço vetorial de dimensão finita sobre K. Prove quef1, ..., fp ∈ V ∗ são LI se, e só se, dados α1, ..., αp ∈ K quaisquer, existev ∈ V tal que fi(v) = αi, 1 ≤ i ≤ p.

3. Sejam E = (e1, ..., en) base do espaço vetorial V sobre K, E∗ = (e∗1, ..., e∗n)

a base dual de E e ϕ : V −→ V ∗ o isomorfismo definido por ϕ(ei) =e∗i , 1 ≤ i ≤ n. Ache todos os automorfismos u : V −→ V tais que< x,ϕ(y) >=< u(x), (ϕ ◦ u)(y) > para x, y ∈ V quaisquer.

Page 61: Algebra Linear

Capítulo 5

Determinantes

Obs. Neste capítulo, por motivos técnicos, vamos supor que a característicado corpo K é diferente de 2; por exemplo podemos tomar K = R ou K = C.

5.1 Aplicações r-lineares alternadasDefinição 5.1 Sejam V e W espaços vetoriais sobre K. Uma aplicação f :V × r...× V −→ W é r-linear se:(a) f(v1, ..., vi + ui, ..., vr) = f(v1, ..., vi, ..., vr) + f(v1, ..., ui, ..., ur)(b) f(v1, ..., avi, ..., vr) = a · f(v1, ..., vi, ..., vr)quaisquer que sejam v1, ..., vi, ui, ..., vr ∈ V, a ∈ K e 1 ≤ i ≤ r.

O conjunto de todas as aplicações r-lineares de V em W, representado porLr(V,W ), munido das leis naturais de adição e multiplicação por escalar, éum espaço vetorial sobre K. Por convenção, L0(V,W ) = W e L1(V,W ) =L(V,W ).

Definição 5.2 f ∈ Lr(V,W ) é alternada se f(v1, ..., vr) = 0 toda vez quedois dos vetores vi são iguais.

As aplicações r-lineares alternadas formam o subespaço Ar(V,W ) de Lr(V,W ).Convencionamos que A0(V,W ) = W e A1(V,W ) = L(V,W ).

Definição 5.3 f ∈ Lr(V,W ) é antissimétrica se f(v1, ..., vi, ..., vj, ..., vr) =−f(v1, ..., vj, ..., vi, ...vr), 1 ≤ i, j ≤ r, i 6= j.

No caso em que W=K, os elementos de L(V,W ) são chamados de formasr-lineares. Em particular, L1(V,W ) = V ∗ é o dual de V. Os elementos deAr(V,K), isto é, as formas r-lineares alternadas, são também chamados der-covetores.

Proposição 5.1 f ∈ Lr(V,W ) é alternada se, e só se, f é antissimétrica.

58

Page 62: Algebra Linear

CAPÍTULO 5. DETERMINANTES 59

Dem. Se f ∈ Lr(V,W ) é alternada, então

0 = f(v1, ..., v + u, ...., v + u, ..., vr) =

= f(v1, ..., v, ..., v, ..., vr) + f(v1, ..., u, ..., u, ..., vr)+

+f(v1, ..., v, ..., u, ..., vr) + f(v1, ..., u, ..., v, ..., vr) =

= f(v1, ..., v, ..., u, ..., vr) + f(v1, ..., u, ..., v, ..., vr),

donde resulta que f é antissimétrica.Reciprocamente, se f é antissimétrica então

f(v1, ..., v, ..., v, ..., vr) = −f(v1, ..., v, ..., v, ..., vr)

donde2f(v1, ..., v, ..., v, ..., vr) = 0 e, como 2 6= 0 em K, resulta f(v1, ..., v, ..., v, ..., vr) =0, isto é, f é alternada.

Definição 5.4 Uma permutação de um conjunto X é toda bijeção de X sobresi mesmo.

O conjunto das permutações de X, munido das leis de composição de apli-cações, é um grupo chamado grupo simétrico de X ou grupo de permutaçõesde X, anotado SX . Se X = {1, 2, ..., n} = In, representamos SX por Sn; Sntem n! elementos.

Definição 5.5 Uma transposição de Sn é uma permutação τ tal que existeminteiros i 6= j, i ≤ i, j ≤ n, para os quais τ(i) = j, τ(j) = i e τ(k) = k parak 6= i, k 6= j, ou seja, τ troca i e j mantendo os demais elementos fixos. Éclaro que τ 2 = id e τ−1 = τ .

Proposição 5.2 Toda permutação σ ∈ Sn pode ser expressa como um pro-duto de transposições.

Dem. (por indução) Se n = 1, não há nada a provar. Suponhamos n > 1 eadmitamos o teorema verdadeiro para (n− 1). Se σ ∈ Sn e σ(n) = n, entãoa restrição σ′ = σ|In−1 pertence a Sn−1. Pela hipótese de indução, existemtransposições τ ′1, ..., τ

′k ∈ Sn−1 tais que σ′ = τ ′1...τ

′k. Para cada i, i ≤ i ≤ k,

seja τi ∈ Sn a transposição tal que τi|In−1 = τ ′i e τi(n) = n. Então, é claroque σ = τ1...τk. Se σ ∈ Sn e σ(n) = k 6= n, seja τ ∈ Sn a transposição talque τ(k) = n, τ(n) = k. Então, τσ = τ1...τk, isto é, σ = ττ1...τk.

Page 63: Algebra Linear

CAPÍTULO 5. DETERMINANTES 60

Proposição 5.3 A cada permutação σ ∈ Sn é possível associar um sinal, 1ou -1, anotado ε(σ), tal que:(1) se τ é uma transposição, então ε(τ) = −1(2) se σ, ρ ∈ Sn, então ε(σρ) = ε(σ) · ε(ρ).

Dem. Seja σ ∈ Sn e consideremos os números

πn =∏

1≤i<j≤n

(j − 1) = (2− 1)[(3− 1)(3− 2)

]...[(n− 1)(n− 2)...2 · 1

]e σ(πn) =

∏1≤i<j≤n

[σ(j)− σ(i)

].

Como σ é bijetora, cada fator de πn, a menos do sinal, aparece em σ(πn)uma e uma só vez, e vemos que σ(πn) = ±πn. Se τ ∈ Sn é uma transposição,é claro que (τσ)(πn) = −σ(πn).Logo, se σ = τ1...τk é um produto de transposições, temos σ(πn) = (−1)kπn,

donde (−1)k =σ(πn)

πn, o que mostra que a paridade do inteiro k só depende

de σ e não da sua expressão como produto de transposições. Definimos osinal de σ por ε(σ) = (−1)k. Logo: σ(πn) = ε(σ)πn. Para uma transposiçãoτ , τ(πn) = −πn, donde ε(τ) = −1, o que prova (1).

Se ρ ∈ Sn, temos (σρ)(πn) = (τ1...τkρ)(πn) = (−1)kρ(πn) = ε(σ)ρ(πn) =ε(σ)ε(ρ)πn.Por outro lado, (σρ)(πn) = ε(σρ) · πn. Resulta: ε(σρ) = ε(σ) · ε(ρ), o queprova (2).

Corolário 5.3.1 Se σ ∈ Sn se exprime como produto de transposições deduas maneiras distintas, σ = τ1...τk = τ ′1...τ

′s, então k e s têm a mesma

paridade (pois ε(σ) = (−1)k = (−1)s).

Definição 5.6 Seja σ ∈ Sn. Se ε(σ) = 1 dizemos que σ é uma permutaçãopar; se ε(σ) = −1 dizemos que σ é uma permutação ímpar.

Se uma permutação par se escreve como produto de transposições, σ =τ1...τk, é claro que k é um número par, e reciprocamente.

Proposição 5.4 Sejam V e W espaços vetoriais sobre K e f ∈ Lr(V,W ). fé antissimétrica se, e só se,

f(vσ(1), ..., vσ(r)) = ε(σ)f(v1, ..., vr)

quaisquer que sejam v1, ..., vr ∈ V e σ ∈ Sr.

Page 64: Algebra Linear

CAPÍTULO 5. DETERMINANTES 61

Dem. Por definição, f ∈ Lr(V,W ) é antissimétrica se, e só se,

f(vτ(1), ..., vτ(r)) = ε(τ)f(v1, ..., vr)

qualquer que seja a transposição τ ∈ Sr.Se σ ∈ Sr, podemos escrever σ como um produto de transposições: σ =

τ1...τk. Então, f é antissimétrica se, e só se,

f(vσ(1), ..., vσ(r)) = f(vτ1...τk(1), ..., vτ1...τk(r)) =

= ε(τk)f(vτ1...τk−1(1), ..., vτ1...τk−1(r)) = ... =

= ε(τk)...ε(τ1)f(v1, ..., vr) = ε(σ)f(v1, ..., vr).

Proposição 5.5 Sejam V um espaço vetorial sobre K e f ∈ Ar(V,K). Sev1, ..., vr ∈ V são linearmente dependentes (LD), então f(v1, ..., vr) = 0.

Dem. Existem escalares a1, ..., ar, não todos nulos, tais que a1v1+...+arvr =0. Se, por exemplo, ai 6= 0, temos:

0 = f(v1, ..., vi−1, 0, vi+1, ..., vr) =

= f(v1, ..., vi−1,r∑

k=1

akvk, vi+1, ..., vr) =

= aif(v1, ..., vi−1, vi, vi+1, ..., vr),

donde f(v1, ..., vr) = 0.

Proposição 5.6 Se dimKV = n então dimKAn(V,K) = 1.

Dem. Para maior clareza, comecemos com o caso n = 2. Sejam (e1, e2) basede V, v1 = a11e1 + a21e2, v2 = a12e1 + a22e2. Se f ∈ A2(V,K), então:

f(v1, v2) = f(a11e1 + a21e2, a12e1 + a22e2) =

= a11a12f(e1, e1) + a11a22f(e1, e2) + a21a12f(e2, e1) + a21a22f(e2, e2) =

= (a11a22 − a12a21)f(e1, e2).

Se D : V ×V −→ K é definida por D(v1, v2) = a11a22−a12a21, é fácil verque D ∈ A2(V,K). Além disso, D(e1, e2) = 1. O cálculo acima nos mostraque f = aD (a = f(e1, e2)), ou seja, que D é uma base de A2(V,K).

Page 65: Algebra Linear

CAPÍTULO 5. DETERMINANTES 62

Consideremos agora o caso geral. Seja (e1, ..., en) uma base de V. Se

vj =n∑i=1

aijei e f ∈ An(V,K), temos:

f(v1, ..., vn) = f

(n∑

i1=1

ai11ei1, ...,

n∑in=1

ainnein

)=

=n∑

i1,...,in=1

ai11...ainn · f(ei1 , ..., ein).

Como f é alternada temos que f(ei1 , ..., ein) = 0 sempre que ij = ikcom j 6= k, de forma que teremos na soma acima apenas as parcelas onde{i1, ..., in} for uma permutação de {1, ..., n}. Assim,

f(v1, ..., vn) =∑σ∈Sn

aσ(1)1...aσ(n)n · f(eσ(1), ..., eσ(n)) =

= f(e1, ..., en) ·∑σ∈Sn

ε(σ)aσ(1)1...aσ(n)n,

soma de n! parcelas, cada uma correspondente a uma permutação de Sn.Seja D : V× n...×V −→ K definida por D(v1, ..., vn) =

∑σ∈Sn

ε(σ)aσ(1)1...aσ(n)n.

Então:(a) D é n-linear: D(v1, ..., v

′i+cv

′′i , ..., vn) =

∑σ∈Sn

ε(σ)aσ(1)1...(a′σ(i)i+ca

′′σ(i)i)...aσ(n)n =

= D(v1, ..., v′i, ..., vn) + cD(v1, ..., v

′′i , ..., vn).

(b) D é antissimétrica: se i < j e vi = vj, temos:

D(v1, ..., vi, ..., vj, ..., vn) =∑σ∈Sn

ε(σ)aσ(1)1...aσ(i)i...aσ(j)j...aσ(n)n.

Seja τ a transposição de Sn tal que τ(i) = j, τ(j) = i e seja στ = α. Então,ε(α) = −ε(σ) e

D(v1, ..., vi, ..., vj, ..., vn) =∑σ∈Sn

ε(σ)aστ(1)1...aστ(j)i...aστ(i)j...aστ(n)n =

= −∑σ∈Sn

ε(α)aα(1)1...aα(j)i...aα(i)j...aα(n)n =

= −D(v1, ..., vj, ..., vi, ..., vn).

(c) D(e1, ..., en) = 1.

Page 66: Algebra Linear

CAPÍTULO 5. DETERMINANTES 63

Como ej =n∑i=1

δijei, temos:

D(e1, ..., en) =∑σ∈Sn

ε(σ)δσ(1)1...δσ(n)n = ε(id)δ11...δnn = 1.

Logo, se f ∈ An(V,K) temos:f(v1, ..., vn) = f(e1, ..., en)D(v1, ..., vn), ou seja, f = aD, onde a = f(e1, ..., en).Portanto, D gera o espaço vetorial An(V,K) e dim An(V,K) = 1.Obs. Dado a ∈ K, f = aD é a única forma n-linear alternada em V tal quef(e1, ..., en) = a.

Corolário 5.6.1 Sejam V um espaço vetorial de dimensão n sobre K ef ∈ An(V,K), f 6= 0. Os vetores v1, ..., vn ∈ V são LD se, e só se,f(v1, ..., vn) = 0.

Dem. Já vimos, na proposição 5.5, que se v1, ..., vn são LD então f(v1, ..., vn) =0. Reciprocamente, suponhamos que v1, ..., vn sejam LI, ou seja, uma base deV. Seja D ∈ An(V,K) tal que D(v1, ..., vn) = 1. Então:

f = f(v1, ..., vn) ·D

donde f(v1, ..., vn) 6= 0 (pois f 6= 0).

5.2 Determinante de um Operador LinearSe V e W são espaços vetoriais sobre K e T : V −→ W é linear, então Tinduz uma aplicação linear T ∗ : Ar(W,K) −→ Ar(V,K) definida por

(T ∗f)(v1, ..., vr) = f(Tv1, ..., T vr),

onde f ∈ Ar(W,K) e v1, ..., vr ∈ V .Se L : V −→ W e T : U −→ V são lineares, então (L ◦ T )∗ = T ∗ ◦ L∗ já

que (L ◦ T )∗f(u1, ..., ur) = f(LTu1, ..., LTur) = L∗f(Tu1, ..., Tur) == T ∗(L∗f)(u1, ..., ur) quaisquer que sejam u1, ..., ur ∈ U e f ∈ Ar(W,K).

Definição 5.7 Sejam V um espaço vetorial de dimensão n sobre K e T :V −→ V linear. Como dim An(V,K) = 1, existe um único escalar a talque T ∗(f) = af para todo f ∈ An(V,K). Dizemos que este escalar a é odeterminante do operador T, e escrevemos a = det T . Assim, det T é oescalar tal que

f(Tv1, ..., T vn) = det T · f(v1, ..., vn)

quaisquer que sejam v1, ..., vn ∈ V e f ∈ An(V,K).

Page 67: Algebra Linear

CAPÍTULO 5. DETERMINANTES 64

Proposição 5.7 Seja V um espaço vetorial de dimensão n sobre K.(1) Se I : V −→ V é a identidade, então det I = 1.(2) Se L, T ∈ L(V ), então det(L ◦ T ) = det L · det T .(3) T ∈ L(V ) é invertível ⇔ det T 6= 0.

Dem. Para todo f ∈ An(V,K) e v1, ..., vn ∈ V arbitrários, temos:(1) f(Iv1, ..., Ivn) = det I · f(v1, ..., vn), donde det I = 1.(2) det(L ◦ T ) · f = (L ◦ T )∗f = T ∗(L∗f) = det T · (L∗f) = det T · det L · f ,donde det(L ◦ T ) = det L · det T .(3) Se T é invertível então det T · det T−1 = det I = 1, donde det T 6= 0.Reciprocamente, seja det T 6= 0. Se (v1, ..., vn) é base de V, tomemos f ∈An(V,K) tal que f(v1, ..., vn) 6= 0. Então,

f(Tv1, ..., T vn) = det T · f(v1, ..., vn) 6= 0.

Pelo corolário da proposição 5.6, (Tv1, ..., T vn) é base de V e, portanto, T éinvertível.

Definição 5.8 Seja A = (aij) uma matriz em K, quadrada de ordem n. SeTA : Kn −→ Kn é o operador linear associado a A, definimos o determinantede A, det A, como sendo det TA.

Sejam E = (e1, ..., en) a base canônica de Kn e D a única forma n-linearalternada tal que D(e1, ..., en) = 1. Então:

det A = D(TA(e1), ..., TA(en)) = D(A1, ..., An),

onde A1, ..., An são os vetores-coluna de A.

Vimos, na proposição 5.6, que D(A1, ..., An) = D

(n∑i=1

ai1ei, ...,n∑i=1

ainei

)=

=∑σ∈Sn

ε(σ)aσ(1)1...aσ(n)n, que é a definição clássica de det A.

Definição 5.9 Sejam V um espaço vetorial sobre K e E = (e1, ..., en) umabase de V. Dada uma sequência de n vetores, (v1, ..., vn), chama-se determinantedesses vetores em relação à base E, o escalar detE(v1, ..., vn) = D(v1, ..., vn).

Se vj =n∑i=1

aijei, 1 ≤ j ≤ n, então a matriz A = (aij) é n×n e detE(v1, ..., vn) =

det A.

É usual a notação det A =

∣∣∣∣∣∣∣a11 ... a1n... . . . ...an1 ... ann

∣∣∣∣∣∣∣ para o determinante da matriz

A = (aij).

Page 68: Algebra Linear

CAPÍTULO 5. DETERMINANTES 65

Exemplo 5.2.1∣∣∣∣a11 a12

a21 a22

∣∣∣∣ = a11a22 − a12a21 pois a permutação {1, 2} −→

(1, 2) é par e {1, 2} −→ (2, 1) é ímpar.

Exemplo 5.2.2 Dentre as 3! = 6 permutações de {1, 2, 3} temos 3 que são

pares, a saber:{1, 2, 3} −→ (1, 2, 3){1, 2, 3} −→ (2, 3, 1){1, 2, 3} −→ (3, 1, 2)

e 3 que são ímpares:{1, 2, 3} −→ (1, 3, 2){1, 2, 3} −→ (3, 2, 1){1, 2, 3} −→ (2, 1, 3)

.

Portanto:

∣∣∣∣∣∣a11 a12 a13

a21 a22 a23

a31 a32 a33

∣∣∣∣∣∣ = a11a22a33 + a21a32a13 + a31a12a23 − a11a32a23−

−a31a22a13 − a21a12a33, e temos a seguinte regra prática (regra de Sarrus):

Repetimos as duas primeiras linhas do determinante; os produtos “para-lelos” à diagonal principal são precedidos do sinal + e aqueles “paralelos” àdiagonal secundária são precedidos do sinal −.Obs. Para os determinantes de ordem superior a 3 não temos regras práticasde cálculo; eles serão calculados pelo processo da seção 5.3 a seguir.

Proposição 5.8 Seja A uma matriz de ordem n. Então: det A = det At.

Dem. Se A = (aij) então At = (a′ij) com a′ij = aji. Temos:

det At =∑σ∈Sn

ε(σ)a′σ(1)1...a′σ(n)n =

∑σ∈Sn

ε(σ)a1σ(1)...anσ(n).

Mas, a1σ(1)...anσ(n) = aσ−1(1)1...aσ−1(n)n e ε(σ−1) = ε(σ). Portanto,

det At =∑

σ−1∈Sn

ε(σ−1)aσ−1(1)1...aσ−1(n)n = det A

pois se σ percorre Sn, σ−1 também percorre Sn.Obs. 1 A proposição 5.8 mostra que det A é também o determinante dosvetores-linha de A.

Page 69: Algebra Linear

CAPÍTULO 5. DETERMINANTES 66

Obs. 2 Como a aplicação (v1, ..., vn) 7−→ det(v1, ..., vn) é n-linear alternada,temos um certo número de propriedades que, para comodidade do leitor, sãolistadas abaixo:(1) det(v1, ..., v

′i+cv

′′i , ..., vn) = det(v1, ..., v

′i, ..., vn)+c·det(v1, ..., v

′′i , ..., vn), c ∈

K.(2) Toda permutação σ ∈ Sn sobre as colunas (ou linhas) da matriz A ∈Mn(K) transforma det A em ε(σ)det A. Em particular, toda transposiçãosobre as colunas (ou linhas) de A transforma det A em −det A.(3) Se uma coluna (ou linha) de A é nula, então det A = 0.(4) Se duas colunas (ou duas linhas) de A são proporcionais, então det A = 0.

(5) det(v1, ..., vi−1,n∑k=1

akvk, vi+1, ..., vn) = ai · det(v1, ..., vi, ..., vn).

(6) det(v1, ..., vn) = 0⇔ v1, ..., vn são LD.(7) det In = 1.(8) det (AB) = det A · det B.(9) det At = det A.(10) A é invertível ⇔ det A 6= 0.

5.3 Desenvolvimento em relação aos elementosde uma coluna (ou de uma linha)

Definição 5.10 Seja A = (aij) uma matriz n× n. Seja Aij a matriz obtidade A pela supressão da linha i e da coluna j. Aij é uma matriz de ordem(n − 1), e det Aij chama-se o menor associado ao elemento aij. O escalarCij = (−1)i+j · Aij chama-se o cofator de aij.

Proposição 5.9 O determinante de uma matriz quadrada é igual à somados produtos dos elementos de uma coluna qualquer pelos seus respectivoscofatores.

Dem. Seja A = (aij) – n × n – e sejam A1, ..., An seus vetores-coluna. Afunção X 7−→ det(A1, ..., X, ..., An) onde X substitui Aj, é uma forma linearβj : Kn −→ K. Logo,

det A = βj(Aj) = βj(a1je1 + ...+ anjen) =n∑i=1

aijβij,

onde (e1, ..., en) é a base canônica de Kn e βij = βj(ei). Os escalares βij nãodependem de Aj, isto é, de a1j, ..., anj.

Page 70: Algebra Linear

CAPÍTULO 5. DETERMINANTES 67

Temos: βij = βj(ei) =

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

a11 ... 0 ... a1n... . . . ... . . . ...ai1 ... 1 ... ain... . . . ... . . . ...an1 ... 0 ... ann

↑coluna j

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

← linha i

e βij = det Ã.

Portanto: βij = (−1)i−1

∣∣∣∣∣∣∣∣∣ai1 ... 1 ... aina11 ... 0 ... a1n... . . . ... . . . ...an1 ... 0 ... ann

∣∣∣∣∣∣∣∣∣ = (−1)i−1(−1)j−1

∣∣∣∣∣∣∣∣∣1 ai1 ... ain0 a11 ... a1n...

... . . . ...0 an1 ... ann

∣∣∣∣∣∣∣∣∣ =

= (−1)i+jdet B, onde a matriz B = (bij) foi obtida de à trocando-se suces-sivamente a linha i com as (i-1) linhas que a precedem em à e, a seguir, acoluna j sucessivamente com as (j-1) colunas que a antecedem. Observemosque o menor det B11, de b11 = 1 em B coincide com o menor det Aij de aijem A. Além disso, sabemos que det B =

∑σ∈Sn

ε(σ)bσ(1)1...bσ(n)n.

Se σ(1) 6= 1, o termo correspondente é nulo, pois, neste caso, bσ(1)1 = 0, edet B reduz-se à soma

det B =∑

σ ∈ Snσ(1) = 1

ε(σ)bσ(2)2...bσ(n)n.

Se σ′ é a permutação de {2, .., n} tal que σ′(i) = σ(i) para 2 ≤ i ≤n, os conjuntos ordenados {1, σ(2), ..., σ(n)} e {σ′(2), ..., σ′(n)} apresentamo mesmo número de inversões, donde ε(σ) = ε(σ′) e, então, det B =∑σ′∈Sn−1

ε(σ′)bσ′(2)2...bσ′(n)n = det B11.

Logo,

βij = (−1)i+jdet B = (−1)i+jdet B11 = (−1)i+jdet Aij = Cij

e, portanto,

det A =n∑i=1

aijCij.

Page 71: Algebra Linear

CAPÍTULO 5. DETERMINANTES 68

Definição 5.11 Dizemos que uma matriz A = (aij) – n × n – é triangularsuperior se aij = 0 sempre que i > j. Analogamente se define uma matriztriangular inferior.

Corolário 5.9.1 O determinante de uma matriz triangular é igual ao pro-duto de seus elementos diagonais.

Dem. De fato,

det A =

∣∣∣∣∣∣∣∣∣∣∣∣∣

a11 a12 ... a1(n−1) a1n

0 a22 ... a2(n−1) a2n

0 0 ......

... . . .0 0 ... a(n−1)(n−1) a(n−1)n

0 0 ... 0 ann

∣∣∣∣∣∣∣∣∣∣∣∣∣= a11

∣∣∣∣∣∣∣∣∣a22 ... a2(n−1) a2n

0 ... a3(n−1) a3n... . . . ...

...0 ... 0 ann

∣∣∣∣∣∣∣∣∣e, por indução:

det A = a11a22...ann.

Exemplo 5.3.1

∣∣∣∣∣∣a11 a12 a13

a21 a22 a23

a31 a32 a33

∣∣∣∣∣∣ = a11

∣∣∣∣a22 a23

a32 a33

∣∣∣∣−a12

∣∣∣∣a21 a23

a31 a33

∣∣∣∣+a13

∣∣∣∣a21 a22

a31 a32

∣∣∣∣ =

= a11a22a33 − a11a23a32 − a12a21a33 + a12a23a31 + a13a21a32 − a13a22a31, comoantes.

Exemplo 5.3.2 Dn =

∣∣∣∣∣∣∣∣∣∣∣

1 + x 1 ... 1 11 1 + x ... 1 1...

... . . . ......

1 1 ... 1 + x 11 1 ... 1 1 + x

∣∣∣∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣∣∣∣

1 1 ... 1 11 1 + x ... 1 1...

... . . . ......

1 1 ... 1 + x 11 1 ... 1 1 + x

∣∣∣∣∣∣∣∣∣∣∣+

+

∣∣∣∣∣∣∣∣∣x 1 ... 10 1 + x ... 1...

... . . . ...0 1 ... 1 + x

∣∣∣∣∣∣∣∣∣ =

∣∣∣∣∣∣∣∣∣1 1 ... 1 10 x ... 0 0...

... . . . ......

0 0 ... 0 x

∣∣∣∣∣∣∣∣∣+ xDn−1.

Logo:Dn = xn−1 + xDn−1

Donde:xDn−1 = x2Dn−2 + xn−1

x2Dn−2 = x3Dn−3 + xn−1

...xn−2D2 = xn−1D1 + xn−1

xn−1D1 = xn−1(1 + x) = xn−1 + xn.

Page 72: Algebra Linear

CAPÍTULO 5. DETERMINANTES 69

Somando estas n igualdades, obtemos:

Dn = xn + nxn−1.

Seja A = (aij) – n × n. Vimos que A é invertível se existe B – n × n –tal que AB = BA = In (Notação: B = A−1) e que basta ser BA = In (ouAB = In) para que seja B = A−1.

Proposição 5.10 Sejam A = (aij) – n × n – e Cij o cofator de aij em A.Então:

n∑i=1

aijCik = δjk · det A =

{det A se j = k0 se j 6= k

.

Dem. Basta considerar o caso j 6= k, por exemplo, j < k. Seja B =(B1, ..., Bn) a matriz tal que Bi = Ai, i 6= k, e Bk = Aj, ou seja,

B =

[ a11 ... a1j ... a1j ... a1n

... ... ... ... ... ... ...an1 ... anj ... anj ... ann

↑ ↑coluna j coluna k

]

É claro que det B = 0. Desenvolvendo det B pelos elementos da colunak, temos:

det B = a1jC1k + a2jC2k + ...+ anjCnk,

isto é, det B = 0 =n∑i=1

aijCik, j 6= k.

Proposição 5.11 Seja A = (aij) – n × n – e B = (C ′ij) a transposta damatriz dos cofatores dos elementos de A, isto é, C ′ij = Cji = cofator de ajiem A. Então:

BA = (det A) · In.

Dem. Se BA = (dij), temos:

dkj =n∑i=1

C ′ki · aij =n∑i=1

aijCik = δjk · det A.

Logo:BA = det A · In.

Page 73: Algebra Linear

CAPÍTULO 5. DETERMINANTES 70

Corolário 5.11.1 Se A = (aij) – n×n – é invertível, então A−1 =1

det A·B,

onde B = (C ′ij) e C ′ij = Cji = cofator de aji em A.A matriz B é a adjunta (clássica) de A, B = adj A. Então:

A−1 =adj A

det A.

Proposição 5.12 Seja A – m × n – de posto r. Existe submatriz r × r deA com determinante 6= 0, e toda submatriz k × k de A, com k > r, temdeterminante igual a zero.

Dem. A tem posto r se, e só se, existem r, e não mais que r, linhas de Aque são LI. Podemos supor que sejam as r primeiras (já que a troca de linhas

não altera o posto), L1, ..., Lr. Seja B =

L1...Lr

– r×n – cujo posto é r, donde

existem r, e não mais que r, colunas de B que são LI. Sejam Bji, ..., Bjr essascolunas e C = [Bji, ..., Bjr] – r × r; C tem posto r, donde det C 6= 0 e é a“maior” submatriz quadrada de A com essa propriedade.

Exercício Seja A =

1 1 t1 t 1t 1 1

. Estude o posto de A conforme os valores

de t ∈ R.

Exercícios

1. Sejam a1, ..., an números dados. Prove que∣∣∣∣∣∣∣∣∣∣∣

1 1 ... 1a1 a2 ... ana2

1 a22 ... a2

n...

... . . . ...an−1

1 an−12 ... an−1

n

∣∣∣∣∣∣∣∣∣∣∣=∏i>j

(ai − aj).

É o determinante de Vandermonde.

2. Seja A = (aij) – n×n, tal que aij = 0 se i+ j ≤ n. Calcule det A. Por

exemplo,

∣∣∣∣∣∣0 0 a0 b cd e f

∣∣∣∣∣∣ = −abd.

Page 74: Algebra Linear

CAPÍTULO 5. DETERMINANTES 71

3. Prove:

∣∣∣∣∣∣a− b− c 2a 2a

2b b− c− a 2b2c 2c c− a− b

∣∣∣∣∣∣ = (a+ b+ c)3.

4. Calculando∣∣∣∣x −yy x

∣∣∣∣ · ∣∣∣∣ x′ y′

−y′ x′

∣∣∣∣, prove que

(x2 + y2)(x′2 + y′2) = (xx′ + yy′)2 + (xy′ − yx′)2.

5. Se a, b, c ∈ R, prove que∣∣∣∣∣∣1 sen a cos a1 sen b cos b1 sen c cos c

∣∣∣∣∣∣ = sen(b− c) + sen(c− a) + sen(a− b).

6. Seja A =

[B C0 D

], onde B é r×r, C é r×(n−r) e D é (n−r)×(n−r).

Prove que det A = det B · det D.

5.4 Matrizes ElementaresDefinição 5.12 Sejam A e B matrizes m×n sobre o corpo K. Dizemos queA é linha-equivalente a B se B pode ser obtida de A por intermédio de umnúmero finito das seguintes operações, chamadas operações elementares sobreas linhas:(a) Tij – trocar de posição as linhas i e j (i 6= j)(b) Ti(k) – multiplicar a linha i por k ∈ K, k 6= 0(c) Tij(λ) – somar à linha i a linha j multiplicada por λ ∈ K.

Definição 5.13 Uma matriz obtida da identidade por meio de uma únicaoperação elementar, chama-se uma matriz elementar.

Exemplo 5.4.1 As matrizes(

0 11 0

)e

1 0 00 1 02 0 1

são elementares.

Proposição 5.13 Sejam e uma operação elementar e E = e(Im) a matrizelementar m×m correspondente. Para toda matriz A = (aij) – m× n, tem-se: e(A) = E · A.

Page 75: Algebra Linear

CAPÍTULO 5. DETERMINANTES 72

Dem. Seja Li = (ai1...ain) a i-ésima linha de A. Então: A =

L1...Lm

. Se

B ∈ Mn×p(K), é fácil ver que AB =

L1B...

LmB

. Se e1 = (1, 0, ..., 0), ..., em =

(0, ..., 0, 1) são 1×m, é claro que e1A = Li e Im =

e1...em

.

(1) e = Tij. Então: E = e(Im) =

e1...ej...ei...em

, e(A) =

L1...Lj...Li...Lm

.

Logo:

EA =

e1A...ejA...eiA...

emA

=

L1...Lj...Li...Lm

= e(A).

(2) e = Ti(k)k 6=0

. Então: E = e(Im) =

e1...kei...em

, e(A) =

L1...kLi...Lm

.Logo:

EA =

e1A...

keiA...

emA

=

L1...kLi...Lm

= e(A).

Page 76: Algebra Linear

CAPÍTULO 5. DETERMINANTES 73

(3) e = Tij(λ)i<j

. Então: E = e(Im) =

e1...

ei + λej...ej...em

, e(A) =

L1...

Li + λLj...Lj...Lm

.

Logo:

EA =

e1A...

(ei + λej)A...ejA...

emA

=

L1...

Li + λLj...Lj...Lm

= e(A), e a proposição está demons-

trada em todos os casos.

Proposição 5.14 Duas matrizes A e B,m×n sobre K, são linha-equivalentesse, e só se, existem matrizes elementaresm×m, E1, ..., Er, tais que Er...E1A =B.

Dem. A é linha-equivalente a B se, e só se, existem operações elementa-res e1, ..., er tais que er(...(e2(e1(A)))...) = B. Pondo Ei = ei(Im), vem:Er...E1A = B.Obs. 1 As operações elementares são bijetoras. De fato, T−1

ij = Tij, Ti(k)−1 =

Ti

(1

k

)e Tij(λ)−1 = Tij(−λ).

Obs. 2 A inversa de uma matriz elementar é também elementar e seE = e(In) e E ′ = e−1(In), então E · E ′ = e(e−1(In)) = In, donde E ′ = E−1.

Proposição 5.15 Seja A ∈Mn(K). As seguintes afirmações são equivalen-tes:

(a) A é invertível(b) A é linha-equivalente a In(c) A é um produto de matrizes elementaresDem.(a) ⇒ (b): Como A é invertível temos det A 6= 0, donde existe algum

ai1 6= 0. Usando, se necessário, a operação T1i, podemos supor a11 6= 0.

Page 77: Algebra Linear

CAPÍTULO 5. DETERMINANTES 74

Neste caso, a operação T1

(1

a11

)muda A na matriz B linha-equivalente a A:

B =

1 b12 ... b1na21 a22 ... a2n

... ... ... ...an1 an2 ... ann

,onde b1i =

a1i

a11

(i = 2, 3, ..., n).

Aplicando a B, sucessivamente, as operações T21(−a21), ..., Tn1(−an1), che-gamos à matriz C linha-equivalente a A:

C =

1 c12 ... c1n0 c22 ... c2n...

... . . . ...0 cn2 ... cnn

.Como C = PA, onde P é um produto de matrizes elementares e, portanto,

invertível, resulta que C é invertível. Logo, det C =

∣∣∣∣c22 ... c2ncn2 ... cnn

∣∣∣∣ 6= 0 e

podemos, como acima, supor c22 6= 0. Usando, sucessivamente, as operações

T2

(1

c22

), T12(−c12), ..., Tn2(−cn2), a matriz C transforma-se em D, linha-

equivalente a A:

D =

1 0 d13 ... d1n

0 1 d23 ... d2n

0 0 d33 ... d3n...

...... . . . ...

0 0 dn3 ... dnn

.Prosseguindo desta maneira chegaremos, após um número finito de ope-

rações elementares, à matriz In.(b)⇒ (c): Se A é linha-equivalente a In então existem matrizes elementaresE1, ..., Er tais que Er...E1A = In, donde A = E−1

1 ...E−1r . Como a inversa de

uma matriz elementar é também elementar, resulta que A é um produto dematrizes elementares.(c) ⇒ (a): Se A = E1...Er, cada Ej sendo elementar, então A é invertível,pois cada Ej é invertível.

Proposição 5.16 A mesma sequência finita de operações elementares quemuda a matriz invertível A ∈Mn(K) na identidade In, muda In em A−1.

Page 78: Algebra Linear

CAPÍTULO 5. DETERMINANTES 75

Dem. Sejam e1, ..., er operações elementares que mudam A em In e E1, ..., Eras matrizes elementares correspondentes. Então: Er...E2E1A = In, dondeA−1 = Er...E1In.

Exemplo 5.4.2 Calculemos a inversa de

A =

1 0 −10 4 22 6 0

.Escrevamos I3 ao lado de A e efetuemos as operações elementares indicadas,que transformam A em I3:1 0 −1 1 0 0

0 4 2 0 1 02 6 0 0 0 1

T31(−2)−−−−→

1 0 −1 1 0 00 4 2 0 1 00 6 2 −2 0 1

T2( 14)−−−→

−→

1 0 −1 1 0 00 1 1/2 0 1/4 00 6 2 −2 0 1

T32(−6)−−−−→

1 0 −1 1 0 00 1 1/2 0 1/4 00 0 −1 −2 −3/2 1

T3(−1)−−−−→

−→

1 0 −1 1 0 00 1 1/2 0 1/4 00 0 1 2 3/2 −1

T13(1)−−−→

1 0 0 3 3/2 −10 1 1/2 0 1/4 00 0 1 2 3/2 −1

T23( 12)−−−−→

−→

1 0 0 3 3/2 −10 1 0 −1 −1/2 1/20 0 1 2 3/2 −1

Portanto:

A−1 =

3 3/2 −1−1 −1/2 1/22 3/2 −1

Da mesma maneira que operamos sobre as linhas de A – m×n – podemos

operar sobre as colunas. Obtemos assim as operações elementares sobre ascolunas:(a) T ′ij – trocar de posição as colunas i e j, i 6= j.(b) T ′i (k) – multiplicar a coluna i por k 6= 0.(c) T ′ij(λ) – somar à coluna i a coluna j multiplicada por λ ∈ K.

Se e′ é uma operação elementar sobre as colunas, então E ′ = e′(In) éuma matriz (coluna-) elementar de ordem n. Valem propriedades análogas

Page 79: Algebra Linear

CAPÍTULO 5. DETERMINANTES 76

as obtidas anteriormente, a saber:

Proposição 5.13’ Se A ∈Mm×n(K), então e′(A) = AE ′.Definição A,B ∈Mm×n(K) são coluna-equivalentes se B pode ser obtida deA por meio de um número finito de operações elementares sobre as colunas.

Proposição 5.14’ A,B ∈ Mm×n(K) são coluna-equivalentes se, e só se,existem matrizes elementares E ′1, ..., E

′r tais que AE ′1...E

′r = B.

Obs. As operações elementares (sobre as colunas) são bijetoras:

(T ′ij)−1 = T ′ij; T

′i (k)

−1 = T ′i

(1

k

)e T ′ij(λ)−1 = T ′ij(−λ).

As inversas das matrizes elementares são também elementares:

se E ′ = e′(In) então (E ′)−1 = (e′)−1(In).

Proposição 5.15’ Seja A ∈Mn(K). São equivalentes:(a) A é invertível.(b) A é coluna-equivalente a In.(c) A é um produto de matrizes (coluna-)elementares.Definição Se A,B ∈ Mm×n(K), escrevemos A ∼ B quando for possíveltransformar A em B por meio de uma sequência finita de operações ele-mentares (sobre as linhas e/ou colunas). É claro que ∼ é uma relação deequivalência.

Proposição 5.17 Sejam A,B ∈ Mm×n(K). A ∼ B se, e só se, A e B sãoequivalentes, isto é, se, e só se, existem matrizes invertíveis P ∈ Mm(K) eQ ∈Mn(K) tais que B = PAQ.Dem. Se A ∼ B existem matrizes elementares E1, ..., Er, E

′1, ..., E

′s tais que

B = Er...E1 · A · E ′1...E ′s, ou seja, B = PAQ com P e Q invertíveis.Reciprocamente, se B = PAQ com P e Q invertíveis, P ∈ Mm(K) e

Q ∈ Mn(K), então existem matrizes elementares tais que P = Er...E1 eQ = E ′1...E

′s, o que mostra que A ∼ B.

Corolário 5.17.1 (a) A,B ∈ Mm×n(K) são linha-equivalentes se, e só se,existe P ∈Mm(K) invertível tal que B = PA.

Page 80: Algebra Linear

CAPÍTULO 5. DETERMINANTES 77

(b) A,B ∈Mm×n(K) são coluna-equivalentes se, e só se, existe Q ∈Mn(K)invertível tal que B = AQ.Obs. É claro que se A e B são linha-equivalentes (ou coluna-equivalentes,ou equivalentes), então pelo corolário 3.8.1 da proposição 3.8, posto(A) =posto(B), de modo que podemos usar as operações elementares para estudara dependência ou independência linear de vetores.

Exemplo 5.4.3 Sejam os vetores de R4 : v1 = (−1, 0,−1, 2), v2 = (3, 4,−2, 5)e v3 = (1, 4, 0, 9). Seja

A =

−1 3 10 4 41 −2 02 5 9

a matriz cujas colunas são esses vetores. O posto de A é a dimensão doespaço gerado por v1, v2, v3. Operando sobre as linhas de A, temos:

AT1(−1)−−−−→

1 −3 −10 4 41 −2 02 5 9

T31(−1)−−−−→

1 −3 −10 4 40 1 12 5 9

T41(−2)−−−−→

−→

1 −3 −10 4 40 1 10 11 11

T2( 14)−−−→

1 −3 −10 1 10 1 10 11 11

T32(−1)−−−−→

−→

1 −3 −10 1 10 0 00 11 11

T42(−11)−−−−−→

1 −3 −10 1 10 0 00 0 0

= B,

donde posto(A) = posto(B) = 2, de modo que v1, v2, v3 são LD e geram umespaço de dimensão 2; (v1, v2) é uma base para este subespaço de R4.

Exemplo 5.4.4 Vamos estudar a independência linear das formas linearessobre R4, onde ab 6= 0:

f1(x1, x2, x3, x4) = x1 − ax3; f2 = x2 −1

ax4;

f3 = x1 − bx4; f4 = x2 −1

bx4.

Page 81: Algebra Linear

CAPÍTULO 5. DETERMINANTES 78

As formas fj são elementos de (R4)∗; em relação à base de (R4)∗, dualda base canônica de R4, temos:

f1 = (1, 0,−a, 0); f2 = (0, 1, 0,−1

a);

f3 = (1, 0, 0,−b); f4 = (0, 1, 0,−1

b).

e a matriz cujas linhas são estes vetores é

A =

1 0 −a 00 1 0 −1/a1 0 0 −b0 1 0 −1/b

T31(−1)−−−−→

1 0 −a 00 1 0 −1/a0 0 a −b0 1 0 −1/b

T42(−1)−−−−→

−→

1 0 −a 00 1 0 −1/a0 0 a −b

0 0 0b− aab

T13(1)−−−→

1 0 0 −b0 1 0 −1/a0 0 a −b

0 0 0b− aab

= B.

Vemos que se a 6= b 6= 0 as quatro formas são LI. Se a = b 6= 0 elas geramum subespaço de (R4)∗ de dimensão 3, do qual (f1, f2, f3) é uma base.

5.5 Equações LinearesSejam V e W espaços vetoriais sobre K e T : V −→ W linear. Se b ∈ W ,a equação T (x) = b chama-se uma equação linear. A equação T (x) = 0 é aequação homogênea associada. Resolver a equação T (x) = b é achar todosos x ∈ V tais que T (x) = b, ou seja, é determinar o conjunto-solução T−1(b).A equação é impossível se T−1(b) = ∅. O conjunto-solução de T (x) = 0 é onúcleo N (T ), que é um subespaço de V; portanto, T (x) = 0 sempre tem asolução x = 0, dita trivial.

Proposição 5.18 Se xp ∈ V é uma solução de T (x) = b, o conjunto-soluçãoé xp +N (T ).

Dem. Se T (x) = T (xp) = b, então T (x− xp) = 0, donde x− xp ∈ N (T ), ouseja, x ∈ xp+N (T ). Reciprocamente, se x ∈ xp+N (T ), então x−xp ∈ N (T ),donde T (x− xp) = 0 e T (x) = T (xp) = b.

Page 82: Algebra Linear

CAPÍTULO 5. DETERMINANTES 79

Corolário 5.18.1 São equivalentes:(a) a equação linear T (x) = b tem, no máximo, uma solução;(b) a equação homogênea T (x) = 0 tem apenas a solução trivial x = 0;(c) T : V −→ W é injetora.

Um caso simples é aquele em que T é um isomorfismo; neste caso, T (x) =b⇔ x = T−1(b).

Proposição 5.19 Sejam V e W espaços vetoriais de mesma dimensão nsobre K, T : V −→ W linear, E e F bases de V e W, respectivamente,[T]EF = A ∈Mn(K). São equivalentes:

(a) T é um isomorfismo;(b) posto(T ) = posto(A) = n;(c) os vetores-coluna e os vetores-linha de A são LI(d) A é invertível;(e) det A 6= 0;(f) para todo b ∈ W a equação T (x) = b tem solução única;(g) a equação T (x) = 0 só tem a solução x = 0.

Dem. Imediata.

Proposição 5.20 Sejam V, W espaços vetoriais sobre K, dim V = n,dim W = m e T : V −→ W linear. Se m < n a equação homogêneaT (x) = 0 tem solução não-trivial.Dem. Seja {v1, ..., vn} uma base de V. Se m < n então T (v1), ..., T (vn) sãoLD, donde existem escalares x1, x2, ..., xn, não todos nulos, tais que x1T (v1)+...+xnT (vn) = 0, donde T (x1, v1+ ...+xnvn) = 0, isto é, x = x1v1+ ...+xnvné solução 6= 0 de T (x) = 0.Obs. 1 A equação T (x) = 0 tem N (T ) como espaço-solução. Portanto, adimensão do espaço-solução de T (x) = 0 é dim N (T ) = n− posto(T ).

Obs. 2 Sejam T : Kn −→ Kn linear, x =

x1...xn

∈ Kn, b =

b1...bm

∈ Km

e A = (aij) a matriz m × n associada a T. A equação T (x) = b escreve-setambém A ·x = b ou x1A1 + ...+xnAn = b, onde os Aj são os vetores-colunade A, ou ainda

a11x1 + ...+ a1nxn = b1...

am1x1 + ...+ amnxn = bm

Page 83: Algebra Linear

CAPÍTULO 5. DETERMINANTES 80

sistema de m equações lineares a n incógnitas. A = (aij) é a matriz doscoeficientes. A expressão x1A1 + ... + xnAn = b nos diz que Ax = b temsolução x se, e só se, o vetor b pertence ao espaço-coluna de A, ou ainda,se, e só se, o posto de A é igual ao posto da matriz (A|b) que é a matrizcompleta do sistema (Teorema de Rouché-Capelli).

Definição 5.14 O sistema linear Ax = b é um sistema de Cramer se A ∈Mn(K) é invertível.

Proposição 5.21 (Regra de Cramer) O sistema de Cramer A · x = b, onde

A ∈ GL(n,K), tem solução única x =

x1...xn

, onde xi =det Bi

det A(i = 1, ..., n),

onde Bi é a matriz obtida de A substituindo-se o vetor-coluna Ai pelo vetorb do segundo membro.

Dem. A equação x1A1+...+xnAn = b nos permite escrever det(A1, ...,

col.i↓b , ..., An) =

xidet(A1, ..., Ai, ..., An) = xi ·det A, donde xi ·det A = det Bi e xi =det Bi

det A=∣∣∣∣a11 ... b1 ... a1n

an1 ... bn ... ann

∣∣∣∣∣∣∣∣a11 ... a1i ... a1n

an1 ... ani ... ann

∣∣∣∣ (i = 1, ..., n).

Exemplo 5.5.12x1 + 3x2 = 8

7x1 − 9x2 = −11

Como det A =

∣∣∣∣2 37 −9

∣∣∣∣ = −39 6= 0, o sistema é de Cramer e:

x1 =

∣∣∣∣ 8 3−11 −9

∣∣∣∣−39

= 1; x2 =

∣∣∣∣2 87 −11

∣∣∣∣−39

= 2.

Proposição 5.22 Sejam as equações lineares Ax = a e Bx = b, onde A,B ∈Mm×n(K) e a, b ∈ Km. Se C = (A|a) e D = (B|b) são linha-equivalentes,então as duas equações lineares têm as mesmas soluções.

Page 84: Algebra Linear

CAPÍTULO 5. DETERMINANTES 81

Dem. Pondo y =

x1...xn−1

, a equação Ax = a se escreve Cy = 0. Se C e D

são linha-equivalentes, existe P ∈Mm(K), invertível, tal que P · C = D. SeDy = 0 vem P (Cy) = 0, donde Cy = 0. Reciprocamente, se Cy = 0 entãoP (Cy) = 0, isto é, Dy = 0. Logo as equações Cy = 0 e Dy = 0 têm asmesmas soluções, ou seja, Ax = a e Bx = b têm as mesmas soluções.

Exemplo 5.5.2 Seja o sistema

2x1 + x2 + x3 = 1x1 + 3x2 − 2x3 = 04x1 − 3x2 + x3 = 2

A matriz completa do sistema é

C =

2 1 1 11 3 −2 04 −3 1 2

T12−−→ T21(−2)−−−−→ T31(−4)−−−−→ T2(−1/5)−−−−−→ T32(15)−−−−→ B,

onde B =

1 3 −2 00 1 −1 −1/50 0 −6 −1

e obtemos:

x3 =1

6

x2 − x3 = −1

5

x1 + 3x2 − 2x3 = 0

e a solução (única) é x =

13/30−1/301/6

.

Exemplo 5.5.3

x1 −x3 −3x4 +x5 = −22x1 +x2 +3x3 −2x4 −x5 = 11

x2 −x4 −3x5 = 04x2 −5x3 −9x)4 −12x5 = −15

. A matriz com-

pleta é

Page 85: Algebra Linear

CAPÍTULO 5. DETERMINANTES 82

1 0 −1 −3 1 −22 1 3 −2 −1 110 1 0 −1 −3 00 4 −5 −9 −12 −15

−→ ... −→

1 0 0 −2 1 10 1 0 −1 −3 00 0 1 1 0 30 0 0 0 0 0

e obtemos o sistema

x1 −2x4 +x5 = 1x2 −x4 −3x5 = 0

x3 +x4 = 3

ou:x1 = 2x4 − x5 + 1x2 = x4 + 3x5

x3 = −x4 + 3.

Trata-se de um sistema indeterminado; existem infinitas soluções

x =

2x4 − x5 + 1x4 + 3x5

−x4 + 3x4

x5

=

10300

+ x4

21−110

+ x5

−13001

,

onde xp =

10300

é a solução particular e

{21−110

,−13001

}

é base do espaço-

solução da equação homogênea associada.

Exemplo 5.5.4x1 + x2 − x3 = 1

2x1 − x2 + x3 = 2

4x1 + x2 − x3 = 0

A matriz completa é

1 1 −1 12 −1 1 24 1 −1 0

−→ ... −→

1 1 −1 10 1 −1 00 0 0 −4

, e o

sistema é impossível já que a última equação 0 · x1 + 0 · x2 + 0 · x3 = −4 éimpossível.

Page 86: Algebra Linear

CAPÍTULO 5. DETERMINANTES 83

Obs. (decomposição LU) Seja A – n× n uma matriz que pode ser reduzidaà forma triangular apenas pelo uso da operação Tij(λ); por exemplo, seja

A = A(1) =

2 4 21 5 24 −1 9

T21(−1/2)−−−−−−→ A(2) T31(−2)−−−−→ A(3) =

2 4 20 3 10 −9 5

−→T32(3)−−−→

2 4 20 3 10 0 8

= U.

Sejam: l21 =1

2; l31 = 2 opostos dos multiplicadores usados na primeira linha

e l32 = −3 o oposto do usado na segunda linha. Se L =

1 0 01/2 1 02 −3 1

é

a matriz triangular inferior cujos elementos lij, para i < j, são os núme-ros acima e lii = 1, então é fácil verificar que A = LU . Os detalhes dadecomposição LU podem ser encontrados na referência [6].

Exercícios

1. Resolva:

(a)x+ y + z = 1

2x+ y + 3z = 1−x+ 2y − 4z = 3

(b)x− 2y + z + t = 1

−2x+ y + 2z + 2t = 06y + z = −2

.

2. Sejam a 6= b 6= c 6= d números reais distintos. Prove que existe umúnico polinômio p(x) = α0 + α1x+ α2x

2 + α3x3 −→ tal que p(a) = a′;

p(b) = b′; p(c) = c′; p(d) = d′, onde a′, b′, c′, d′ são reais dados.

3. Ache a decomposição LU da matriz A =

2 3 14 1 43 4 6

.

Page 87: Algebra Linear

Capítulo 6

Autovalores e Autovetores

6.1 DefiniçõesDefinição 6.1 Sejam V um espaço vetorial sobre o corpo K e T : V −→ Vlinear. Dizemos que v ∈ V é um autovetor de T se existe a ∈ K tal que

T (v) = av.

Se v 6= 0, o escalar a é univocamente determinado pois a1v = a2v implica(a1 − a2)v = 0 e, como v 6= 0, vem a1 = a2.

Definição 6.2 Sejam V um espaço vetorial sobre K e T : V −→ V linear.Dizemos que a ∈ K é um autovalor de T se existe v ∈ V, v 6= 0, tal queT (v) = av.Obs. Ao invés de autovetor e autovalor, usam-se também os termos vetorpróprio ou vetor característico e valor próprio ou valor característico.

Exemplo 6.1.1 Se v ∈ V é um autovetor do operador linear T : V −→ Ve c ∈ K, então cv também é um autovetor de T pois T (cv) = cT (v) = cav =a(cv), supondo T (v) = av.

Exemplo 6.1.2 Seja V = C∞(R,R) o espaço vetorial real das funções f :R −→ R de classe C∞, isto é, indefinidamente deriváveis, e seja D : V −→ Vo operador de derivação. Se f ∈ V, f(t) = eat, a ∈ R, então Df(t) = a · eat,ou seja, Df = af , e f é um autovetor de D, com autovalor a.

Exemplo 6.1.3 Se a = 0 é um autovalor de T : V −→ V linear, existev 6= 0 tal que T (v) = 0, donde N (T ) 6= {0} e T não é injetora.

84

Page 88: Algebra Linear

CAPÍTULO 6. AUTOVALORES E AUTOVETORES 85

Proposição 6.1 Sejam V um espaço vetorial sobre K, T : V −→ V linear,a ∈ K e V (a) = {v ∈ V ; T (v) = av}. Então V (a) é um subespaço de V talque T

(V (a)

)⊂ V (a), isto é, V (a) é T-invariante.

Dem. É claro que 0 ∈ V (a); se v1, v2 ∈ V (a), então T (v1) = av1, T (v2) =av2, donde T (v1 + v2) = T (v1) + T (v2) = av1 + av2 = a(v1 + v2). Se c ∈ K,então T (cv1) = cT (v1) = cav1 = a(cv1). Logo, V (a) é subespaço de V. Se v ∈V (a) então T (v) = av e T (Tv) = T (av) = aT (v), donde T

(V (a)

)⊂ V (a).

V (a) é o autoespaço de T associado ao autovalor a. V (a) = {0} significa quea não é autovalor de T.

Proposição 6.2 Sejam V um espaço vetorial de dimensão finita sobre K eT : V −→ V linear. São equivalentes:(a) a ∈ K é autovalor de T;(b) T − aI não é invertível;(c) det(T − aI) = 0.

Dem. Já vimos anteriormente que (b) e (c) são equivalentes. Basta, então,provar que (a) e (b) são equivalentes.(a) ⇒ (b): Se a é autovalor de T, existe v 6= 0 tal que T (v) = av, isto é,(T − aI)v = 0, donde T − aI não é invertível.(b) ⇒ (a): Se T − aI não é invertível, existe v 6= 0 tal que (T − aI)v = 0,donde T (v) = av, ou seja, a é autovalor de T.

Proposição 6.3 Sejam V um espaço vetorial sobre K e T : V −→ V linear.Se a 6= b são autovalores de T, então V (a) ∩ V (b) = {0}.

Dem. T (v) = av = bv implica (a− b)v = 0, donde v = 0 (pois a 6= b).

Proposição 6.4 Sejam V um espaço vetorial sobre K e T : V −→ V li-near. Sejam v1, ..., vm autovetores não nulos de T com autovalores a1, ..., am,respectivamente. Se a1 6= a2 6= ... 6= am, então v1, ..., vm são linearmenteindependentes.

Dem. (indução) Para m = 1, um vetor v1 6= 0 é LI. Suponhamos m > 1 eadmitamos o teorema verdadeiro para (m− 1) autovetores. Se tivermos umarelação linear 4 b1v1+b2v2+...+bmvm = 0, então b1T (v1)+...+bmT (vm) = 0,

Page 89: Algebra Linear

CAPÍTULO 6. AUTOVALORES E AUTOVETORES 86

donde:� a1b1v1 + a2b2v2 + ...+ ambmvm = 0.

Sem perda de generalidade podemos supor a1 6= 0. Multiplicando 4 por a1

e subtraindo o resultado de �, obtemos: (a2−a1)b2v2+...+(am−a1)bmvm = 0.Como a2 − a1 6= 0, ..., am − a1 6= 0, concluimos, por indução, que b2 =

... = bm = 0, e 4 nos dá b1v1 = 0, donde b1 = 0, ou seja, v1, ..., vm são LI.

Corolário 6.4.1 Se dim V = n, todo operador linear T : V −→ V tem, nomáximo, n autovalores distintos.

Corolário 6.4.2 Se a1, ..., am são autovalores de T : V −→ V linear e a1 6=a2 6= ... 6= am, então o subespaço V (a1) + ... + V (am) é soma direta deV (a1), ..., V (am).

Dem. Seja vi ∈ V (ai), i = 1, ...m. Se v1 + v2 + ...+ vm = 0, vamos mostrarque v1 = ... = vm = 0. Se p < m destes vetores fossem diferentes de 0,por exemplo, vi1, ..., vip, e os (m − p) restantes fossem iguais a 0, teríamosvi1+...+vip = 0, isto é, vi1, ..., vip seriam LD em contradição com a proposição6.4. Resulta que V (a1) + ...+ V (am) = V (a1)⊕ ...⊕ V (am).

Exemplo 6.1.4 Seja V = C∞(R,R). Se a1 6= ... 6= am são reais distintos,então ea1t, ..., eamt são autovetores do operador de derivação D : V −→ Vcom autovalores distintos e, portanto, as funções ea1t, ..., eamt são LI. Comom é arbitrário, resulta que V = C∞(R,R) não tem dimensão finita.

Definição 6.3 Seja A ∈ Mn(K). Os autovetores e autovalores de A sãoos autovetores e autovalores da aplicação linear associada TA : Kn −→Kn, TA(x) = A · x. Assim, x ∈ Kn é autovetor de A se existe a ∈ Ktal que A · x = ax.

Proposição 6.5 Seja A ∈Mn(K). São equivalentes:(a) a ∈ K é autovalor de A;(b) A− aIn não é invertível;(c) det(A− aIn) = 0.Obs. Se B = P−1AP , onde A ∈Mn(K) e P ∈Mn(K) é invertível, então Ae B têm os mesmos autovalores pois se Ax = ax, x 6= 0 e y = P−1x, então:

By = P−1APy = P−1Ax = P−1(ax) = ay.

Como y 6= 0, resulta que a é autovalor de B. A recíproca é análoga. É bomnotar, entretanto, que os autovetores de A e B, associados ao autovalor a,são x e y = P−1x, respectivamente.

Page 90: Algebra Linear

CAPÍTULO 6. AUTOVALORES E AUTOVETORES 87

Definição 6.4 Sejam V um espaço vetorial de dimensão n sobre K e T :V −→ V linear. O polinômio característico de T é PT (t) = det(T − tI).Se A ∈ Mn(K), o polinômio característico PA(t) é o polinômio da aplicaçãolinear associada TA : Kn −→ Kn, isto é, PA(t) = det(TA−tI) = det(A−t·In).Se A = (aij), então:

PA(t) = det(A− tIn) =

∣∣∣∣∣∣∣∣∣a11 − t a12 ... aina21 a22 − t ... a2n...

... . . . ...an1 an2 ... ann − t

∣∣∣∣∣∣∣∣∣ =

= (−1)ntn + (−1)n−1(a11 + ...+ ann)tn−1 + ...+ det A

(o termo independente é PA(0) = det A).

Proposição 6.6 Matrizes semelhantes têm o mesmo polinômio caracterís-tico.

Dem. De fato se B = P−1AP então as matrizes A e B representam omesmo operador linear T : Kn −→ Kn e, portanto, têm o mesmo polinômiocaracterístico PT (t) = det(T − tI).

Uma demonstração direta é a seguinte:

det(B − tIn) = det(P−1AP − tIn) = det(P−1(A− tIn)P ) = det(A− tIn)

pois det P−1 · det P = 1.

Obs. Se PT (t) = PA(t) = cntn + cn−1t

n−1 + ... + c1t + c0, então cn = (−1)n

e c0 = det T = det A. Os coeficientes cj, j = 0, 1, ..., n, só dependem dooperador T.

Definição 6.5 (−1)n−1cn−1 é o traço de T, e escrevemos tr T = (−1)n−1cn−1.O traço de A ∈Mn(K) é o traço de TA : Kn −→ Kn, TA(x) = A ·x : tr A =a11 + a22 + ...+ ann.

Se A e B são semelhantes, temos tr A = tr B pois PA(t) = PB(t).

Proposição 6.7 Sejam V um espaço vetorial de dimensão n sobre K e T :V −→ V linear. a ∈ K é um autovalor de T se, e só se, a é uma raiz dopolinômio característico de T.

Dem. a ∈ K é autovalor de T ⇔ det(T − aI) = 0⇔ a é raiz de PT (t).

Page 91: Algebra Linear

CAPÍTULO 6. AUTOVALORES E AUTOVETORES 88

Exemplo 6.1.5 Se A =

[1 12 2

], então PA(t) =

∣∣∣∣1− t 12 2− t

∣∣∣∣ = t2− 3t, e os

autovalores de A são a = 0 e a = 3.Procuremos autovetores x =

(x1

x2

)associados a estes autovalores. Para

a = 0, temos:x1 + x2 = 0

2x1 + 2x2 = 0.

Logo, x = x1

(1−1

)é autovetor associado a a = 0, para todo x1 ∈ K.

Para a = 3, temos:−2x1 + x2 = 0

2x1 − x2 = 0.

Logo, y =

(x1

2x1

)= x1

(12

)é autovetor associado a a = 3, para todo x1 ∈ K.

Os autoespaços correspondentes são as retas pela origem de K2 geradas

por(

1−1

)e(

12

), respectivamente.

Exemplo 6.1.6 Se A =

[0 1−1 0

]então PA(t) = t2+1. Se A ∈M2(R) vemos

que A não tem autovalores. Se A ∈M2(C) então i e -i são autovalores de A.Obs. Se T : V −→ V é linear e dimK V = n, temos que PT (t) tem grau n,de modo que T tem, no máximo, n autovalores. Quando K = C, PT (t) tempelo menos uma raiz, de modo que, neste caso, T sempre tem um autovetornão nulo.

Proposição 6.8 Sejam V um espaço-vetorial de dimensão n sobre K e L, T :V −→ V lineares. L ◦ T e T ◦ L têm os mesmos autovalores.

Dem. Se a = 0 é autovalor de L ◦ T , existe u 6= 0 tal que L(Tu) = 0,donde L ◦ T não é invertível; logo, det(L ◦ T ) = det L · det T = 0, dondedet(T ◦L) = 0 e T ◦L não é invertível, donde existe v 6= 0 tal que T (Lv) = 0,isto é, a = 0 é autovalor de T ◦ L.

Se a 6= 0 é autovalor de L ◦ T , existe u 6= 0 tal que L(Tu) = au. Sejav = T (u); então: T (Lv) = T (au) = av. Se fosse v = T (u) = 0 entãoteríamos LTu = 0, donde au = 0, donde u = 0, contradição. Portanto,TLv = av com v 6= 0, donde a é autovalor de T ◦ L. Analogamente se provaque todo autovalor de T ◦ L é também autovalor de L ◦ T .

Page 92: Algebra Linear

CAPÍTULO 6. AUTOVALORES E AUTOVETORES 89

Proposição 6.9 Sejam V um espaço vetorial de dimensão n sobre K e T :V −→ V linear. Se o polinômio característico PT (t) admite em K uma raiza de multiplicidade m, então 1 ≤ dim V (a) ≤ m.

Dem. Seja E = (u1, ..., ur, v1, .., vs) base de V tal que (u1, ..., ur) seja base deV (a). Temos:

T (u1) = au1

T (u2) = au2...T (ur) = aurT (v1) = a11u1 +...+ ar1ur + b11v1 + ...+ bs1vsT (vs) = a1su1 +...+ arsur + b1sv1 + ...+ bssvs

Logo:

onde A = (aij) é r × s e B = (bij) é s× s.Então:

PT (t) =

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

a− t 0 ... 0 a11 ... a1s

0 a− t ... 0 a21 ... a2s...

......

...... . . . ...

0 0 ... a− t ar1 ... ars0 0 ... 0 b11 − t ... b1s...

......

...... . . . ...

0 0 ... 0 bs1 ... bss − t

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣= (a−t)rdet(B−tIs).

Como a é raiz de multiplicidade m, temos r ≤ m, donde 1 ≤ dim V (a) ≤ m.

6.2 DiagonalizaçãoDefinição 6.6 Sejam V um espaço vetorial de dimensão n sobre K e T :V −→ V linear. Dizemos que T é diagonalizável se existe base de V for-mada por autovetores de T, ou seja, se, e só se, T tem n autovetores line-armente independentes. Em relação a essa base, a matriz de T é da forma

Page 93: Algebra Linear

CAPÍTULO 6. AUTOVALORES E AUTOVETORES 90λ1 0 ... 00 λ2 ... 0...

... . . . ...0 0 ... λn

, λj ∈ K, ou seja, todos os elementos fora da diagonal

principal são iguais a zero. Uma tal matriz é dita diagonal; os elementos dadiagonal principal são os autovalores de T.

Definição 6.7 Seja A = (aij) – n × n. A é diagonalizável se existe matrizinvertível P – n× n – tal que P−1AP = D, onde D é diagonal, isto é, se Aé semelhante a uma matriz diagonal.

Proposição 6.10 Sejam V um espaço vetorial de dimensão finita sobre Ke T : V −→ V linear. T é diagonalizável se, e só se, existe base E de V talque

[T]EE = D seja diagonal.

Dem. Se T é diagonalizável existe base E = (v1, ..., vn) de V formada porautovetores de T: T (vi) = λivi (1 ≤ i ≤ n). Logo:

[T]EE =

λ1 0 ... 00 λ2 ... 0...

... . . . ...0 0 ... λn

.Reciprocamente, seja E = (v1, ..., vn) base de V tal que

[T]EE = D =

λ1 0 ... 00 λ2 ... 0...

... . . . ...0 0 ... λn

. Então: T (vi) = λivi, 1 ≤ i ≤ n, e E é formada por

autovetores de T; portanto, T é diagonalizável.

Obs. Seja F base de V e seja A =[T]FF . T é diagonalizável se, e só se,

existe base E de V tal que[T]EE = D seja diagonal. Mas,

D =[T]EE =

[Id]FE ·[T]FF ·[Id]EF = P−1AP,

ou seja, T é diagonalizável se, e só se, A =[T]FF é diagonalizável; P =

[Id]FE

é a matriz de passagem da base E para a base F e as colunas de P são osautovetores de A.

Page 94: Algebra Linear

CAPÍTULO 6. AUTOVALORES E AUTOVETORES 91

Proposição 6.11 Sejam V um espaço vetorial de dimensão n sobre K eT : V −→ V linear. T é diagonalizável se, e só se:(a) o polinômio característico PT de T tem suas n raízes em K;(b) para cada raiz λi de PT , de ordem de multiplicidademi, tem-se dim V (λi) =mi.

Dem. Se T é diagonalizável e E é base de V na qual[T]EE é diagonal, então

E é formada de autovetores de T. Podemos supor que os elementos de E es-tão ordenados de maneira a termos primeiro os autovetores associados a λ1,depois aqueles associados a λ2, e assim por diante, de modo que

[T]EE =

λ1 ... 0 0 ... 0 ... 0 ... 0... . . . ...

... . . . ... . . . ... . . . ...0 ... λ1 0 ... 0 ... 0 ... 00 ... 0 λ2 ... 0 ... 0 ... 0... . . . ...

... . . . ... . . . ... . . . ...0 ... 0 0 ... λ2 ... 0 ... 0... . . . ...

... . . . ... . . . ... . . . ...0 ... 0 0 ... 0 ... λk ... 0... . . . ...

... . . . ... . . . ... . . . ...0 ... 0 0 ... 0 ... 0 ... λk

∈Mn(K).

Então:V = V (λ1)⊕ V (λ2)⊕ ...⊕ V (λk),

donde dim V = dim V (λ1) + ...+ dim V (λk) = n. Como dim V (λi) ≤ mi em1 + ...+mk = n, resulta dim V (λi) = mi (1 ≤ i ≤ k).

Reciprocamente, as n raízes de PT estando em K, suponhamos que dim V (λi) =mi, 1 ≤ i ≤ k. A relação m1 + ...+mk = n nos dá

dim[V (λ1)⊕ ...⊕ V (λk)

]= n ∴ V = V (λ1)⊕ ...⊕ V (λk).

A reunião das bases dos V (λi) (1 ≤ i ≤ n) é uma base de V formada porautovetores de T, donde T é diagonalizável.

Exemplo 6.2.1 Seja A =

[1 23 2

]. Os autovalores de A são as raízes de∣∣∣∣1− t 2

3 2− t

∣∣∣∣ = 0, isto é, de t2− 3t− 4 = 0, ou seja, t1 = −1 e t2 = 4. Para

Page 95: Algebra Linear

CAPÍTULO 6. AUTOVALORES E AUTOVETORES 92

t = −1 a equação (A − I2) · x = 0, onde x =

(x1

x2

), nos dá x1 + x2 = 0,

donde x = x1

(1−1

), x1 ∈ R.

Para t = 4 obtemos 3x1 + 2x2 = 0, donde x = 3x2

(23

), x2 ∈ Real. O

vetor(

1−1

)gera V (−1), quanto que

(23

)gera V (4). A matriz de passagem

da base canônica de V = R2 para a base

{(1−1

),

(23

)}é P =

[1 2−1 3

],

cuja inversa é P−1 =1

5

[3 −21 1

]e B = P−1AP =

[−1 00 4

], matriz diagonal.

Exemplo 6.2.2 A =

[1 10 1

]∈M2(C) não é diagonalizável. De fato, PA(t) =

(1 − t)2 tem a raiz dupla t = 1 e (A − I2)(x1

x2

)= 0 nos dá x2 = 0, donde

x = x1

(x1

x2

). Assim, dim V (1) = 1 < 2, e A não é diagonalizável.

Exemplo 6.2.3 A =

−1 1 00 −1 11 0 −1

é diagonalizável em M3(C) mas não o

é em M3(R). De fato, os autovalores de A são a1 = 0, a2 = −3

2+ i

√3

2, a3 =

−3

2− i√

3

2.

Exemplo 6.2.4 A =

−1 1 11 −1 11 1 −1

∈ M3(R) é diagonalizável. De fato,

temos:PA(t) = −(t− 1)(t+ 2)2.

É fácil comprovar que

111

é base de V (1) e que

{ 1−10

,

10−1

} é base

de V (−2), ou seja, dim V (1) = 1 e dim V (−2) = 2. Resulta que A ∈M3(R)

é diagonalizável. Se P =

1 1 11 −1 01 0 −1

, então P−1AP =

1 0 00 −2 00 0 −2

.

Page 96: Algebra Linear

CAPÍTULO 6. AUTOVALORES E AUTOVETORES 93

Proposição 6.12 Sejam V um espaço vetorial de dimensão n ≥ 1 sobre Ke T : V −→ V linear tal que PT (t) tenha todas suas raízes em K. Existe umabase de V na qual a matriz de T é triangular (superior).

Dem. (indução)Para dim V = 1 nada há a provar. Suponhamos o teorema verdadeiro paradim V = n−1. Seja a1 ∈ K um dos autovalores de T e v1 6= 0 um autovetorassociado a a1, isto é, Tv1 = a1v1. Sejam V1 = Kv1 o subespaço gerado porv1, W um suplementar qualquer de V1 e F = (w2, ..., wn) uma base de W.Como v1 6= W , E ′ = (v1, w2, ..., wn) é base de V e

[T]E ′E ′ =

a1 b12 ... b1n0 b22 ... b2n...

... . . . ...0 bn2 ... bnn

.Como, em geral, T (W ) não está contido em W, consideremos as projeçõesp1 : V −→ V1 e p2 : V −→ W . Então, Im(p2T ) ⊂ W e podemos considerara aplicação linear p2 · T : W −→ W . Como p2(V1) = 0 e p2(wj) = wj,j = 2, ..., n, temos:

p2T (wj) = p2(b1jv1 + b2jw2 + ...+ bnjwn) = b2jw2 + ...+ bnjwn,

donde: [p2T

]FF =

b22 ... b2n... . . . ...bn2 ... bnn

.Resulta: PT (t) = (a1−t) det(p2T−tI), e podemos concluir que os autovaloresde p2T : W −→ W estão em K, já que eles são também autovalores de T.Pela hipótese de indução, existe base G = (u2, ..., un) de W tal que

[p2T

]GG

=c22 c23 ...c2n0 c33 ... c3n...

... . . . ...0 0 ... cnn

é matriz triangular. Se E = (v1, u2, ..., un) é a base de

V obtida acrescentando-se v1 6= W a G, temos:

[T]EE =

a1 c12 ... c1n0 c22 ... c2n0 0 ... c3n...

... . . . ...0 0 ... cnn

, matriz triangular.

Page 97: Algebra Linear

CAPÍTULO 6. AUTOVALORES E AUTOVETORES 94

Corolário 6.12.1 Seja A ∈ Mn(C). Existe P ∈ Mn(C), invertível, tal queB = P−1AP seja triangular.Obs. Se E = (v1, v2, ..., vn) é base de V na qual

[T]EE é triangular superior,

sejam:V1 = Kv1 = espaço gerado por v1

V2 = espaço gerado por v1, v2...Vn = V = espaço gerado por v1, v2, ..., vn.

Então:(1) Vi ⊂ Vi+1; (2) dim Vi = i; (3) T (Vi) ⊂ Vi (1 ≤ i ≤ n).

Reciprocamente, se V1, ..., Vn = V são subespaços de V satisfazendo (1),(2) e (3) acima, então existe base E de V na qual

[T]EE é triangular su-

perior. De fato, basta tomar (v1) base de V1, (v1, v2) base de V2, (v1, v2, v3)base de V3 e assim por diante até chegar a uma base (v1, v2, ..., vn) de Vn = V .

Exercícios

1. Ache os autovalores e autovetores e A =

2 0 43 −4 121 −2 5

∈M3(R).

2. Verifique se A =

−4 0 −20 1 05 1 3

é diagonalizável.

6.3 Polinômios de Operadores e MatrizesSejam K[t] o conjunto dos polinômios a uma variável com coeficientes nocorpo K, V um espaço vetorial sobre K, T : V −→ V linear e p(t) = a0 +a1t+ ...+ amt

m um elemento de K[t].

Definição 6.8 p(T ) = a0I + aiT + ...+ amTm : V −→ V .

Se A ∈Mn(K), definimos: p(A) = a0In + a1A+ ...+ amAm ∈Mn(K).

Exemplo 6.3.1 Sejam A =

[0 12 −1

]e p(t) = t3 − 2t+ 3. Então:

p(A) =

[0 12 −1

]3

− 2

[0 12 −1

]+ 3

[1 00 1

]=

[1 12 0

].

Page 98: Algebra Linear

CAPÍTULO 6. AUTOVALORES E AUTOVETORES 95

Obs. Se E é base de V, A =[T]EE e φ : L(V ) −→ Mn(K) é o isomorfismo

de álgebras tal que φ(T ) =[T]EE = A, então

φ(p(T )

)= φ(a0I + ...+ amT

m) = a0φ(I) + ...+ amφ(Tm) =

= a0In + a1A+ ...+ amAm = p(A),

ou seja,[p(T )

]EE = p(A).

Proposição 6.13 Sejam p, q ∈ K[t], c ∈ K, V um espaço vetorial sobre Ke T : V −→ V linear. Então:(a) (p+ q)(T ) = p(T ) + q(T )(b) (pq)(T ) = p(T ) · q(T ) = q(T ) · p(T )(c) (cp)(T ) = c · p(T ).

Dem. Suponhamos p(t) = a0 + a1t+ ...+ antn e q(t) = b0 + b1t+ ...+ bmt

m,m ≤ n, e seja bi = 0 se i > m. Então:(a) (p+ q)(t) = (a0 + b0) + (a1 + b1)t+ ...+ (an + bn)t

n, donde

(p+ q)(T ) = (a0 + b0)I + (a1 + b1)T + ...+ (an + bn)Tn =

= (a0I + a1T + ...+ anTn) + (b0I + b1T + ...+ bnT

n) =

= p(T ) + q(T )

.

(b) (pq)(t) = c0 + c1t+ ...+ cn+mtn+m =

m+n∑k=0

cktk, onde

ck = a0bk + a1bk−1 + ...+ akb0 =k∑i=0

aibk−i.

Então: (pq)(T ) =m+n∑k=0

ckTk e p(T ) · q(T ) =

(n∑i=0

aiTi

)(m∑j=0

bjTj

)=

=n∑i=0

m∑j=0

aibjTi+j =

m+n∑k=0

ckTk = (pq)(T ) = (qp)(T ) = q(T ) · p(T ).

(c) (cp)(T ) = ca0I + ca1T + ...+ canTn = c · p(T ).

Obs. É claro que a proposição 6.13 continua válida se trocarmos o operadorlinear T : V −→ V por uma matriz quadrada A.

Page 99: Algebra Linear

CAPÍTULO 6. AUTOVALORES E AUTOVETORES 96

Exemplo 6.3.2 Sejam A,P ∈Mn(K), P invertível e m um inteiro positivo.Temos: (P−1AP )2 = P−1AP · P−1AP = P−1A2P e, por indução, vê-sefacilmente que (P−1AP )m = P−1AmP .

Se p(t) = a0 + a1t+ ...+ amtm, então p(P−1AP ) =

m∑k=0

ak(P−1AP )k =

=m∑k=0

akP−1AkP = P−1 ·

m∑k=0

akAkP = P−1 · p(A) · P .

Proposição 6.14 (Cayley-Hamilton) Sejam V um espaço vetorial de dimen-são n ≥ 1 sobre K e T : V −→ V linear. T é um zero de seu polinômiocaracterístico, isto é, PT (T ) = 0.

Dem. Para facilitar vamos provar o teorema no caso em que K = C.Vimos, na proposição 6.11, que existem subespaços V1, ..., Vn de V tais

que Vi ⊂ Vi+1, dim Vj = j e T (Vi) ⊂ Vi (1 ≤ i ≤ n) e base E = (v1, v2, ..., vn)de V tal que Vi = espaço gerado por v1, ..., vi (1 ≤ i ≤ n). Em relação à baseE a matriz de T é triangular superior:

[T]EE =

a11 a12 ... a1n

0 a22 ... a2n

0 0. . . ...

0 0 ... ann

.Então: Tvi = aiivi+ um vetor de Vi−1.Como (T − aiiI)vi = Tvi − aiivi resulta que (T − aiiI)vi ∈ Vi−1. Além disso,o polinômio característico de T é dado por PT (t) = (−1)n(t− a11)...(t− ann)de modo que PT (T ) = (−1)n(T − a11I)...(T − annI).Vamos provar, por indução, que (T − a11I)...(T − aiiI)v = 0 para todo v ∈Vi (1 ≤ i ≤ n).

Para i = 1, temos (T −a11I)v1 = Tv1−a11v1 = 0. Admitamos o teoremaverdadeiro para i− 1. Todo elemento de Vi é da forma u+ cvi com u ∈ Vi−1

e c ∈ C. Como TVi−1 ⊂ Vi−1 resulta que (T − aiiI)u está em Vi−1. Porindução,

(T − a11I)...(T − ai−1,i−1I)(T − aiiI)u = 0.

Por outro lado, (T − a11I)cvi pertence a Vi−1 e, por indução,

(T − a11I)...(T − aiiI)cvi = 0.

Logo, para v ∈ Vi, temos

(T − a11I)...(T − aiiI)v = 0

Page 100: Algebra Linear

CAPÍTULO 6. AUTOVALORES E AUTOVETORES 97

e i = n prova o teorema.Obs. É claro que a proposição 6.14 continua válida se substituirmos T :V −→ V por uma matriz A ∈Mn(K).

Exemplo 6.3.3 Seja A =

1 1 10 0 −30 3 6

. Temos: PA(t) = (1− t)(t− 3)2.

Para t = 1, (A− I3)x = 0 nos dá x = x1

100

, x1 ∈ R.

Para t = 3, (A− 3I3)x = 0 nos dá x = x3

0−11

, x3 ∈ R.

Como dim V (3) = 1 < 2, A não é diagonalizável. Os vetores

100

e 0−11

geram V (1) e V (3), respectivamente. Para obter uma base de R3

devemos tomar um terceiro vetor que seja independente desses dois. Por

exemplo,

010

. Obtemos a base F =

1

00

,

0−11

,

010

de R3. Se

P =

1 0 00 −1 10 1 0

, então P−1 =

1 0 00 0 10 1 1

e B = P−1AP =

1 0 10 3 30 0 3

, ma-

triz triangular na qual os elementos da diagonal principal são os autovaloresde A. Como PA(t) = PB(t) = (1− t)(3− t)2, temos PA(A) = PB(B) = 0, ouseja, (I3 − A)(3I3 − A)2 = 0, que se pode verificar diretamente pelo cálculo.

6.4 Exercícios do Capítulo 6

1. Seja A =

1 a 10 1 b0 0 c

, onde a, b e c são reais. Ache os autovalores e

autovetores de A e determine os casos em que A é diagonalizável.

2. Se possível, diagonalize A =

−2 1 11 −2 11 1 −2

.

Page 101: Algebra Linear

CAPÍTULO 6. AUTOVALORES E AUTOVETORES 98

3. Prove que não existem matrizes A, B – n× n – tais que[A,B

]= AB −BA = In.

4. Sejam V um espaço vetorial de dimensão finita sobre K, T : V −→ Vlinear.(a) Prove que T e T t têm o mesmo polinômio característico.(b) Sejam V (λ) o auto-espaço associado ao autovalor λ de T e V ′(λ)o auto-espaço associado ao autovalor λ de T t. Prove que V (λ) e V ′(λ)têm a mesma dimensão.

5. Sejam A ∈ Mn(C) a matriz “circulante” A =

a0 a1 ... an−1

an−1 a0 ... an−2...

... . . . ...a1 a2 ... a0

e

P = (pjk) – n× n – tal que pjk = e2πinjk.

(a) Calcule PP e ache P−1.

(b) Se w = e2πin , mostre que o vetor x =

1w...

wn−1

é um autovetor de A.

Qual é o autovalor correspondente?(c) Prove que P−1AP é uma matriz diagonal.

Page 102: Algebra Linear

Capítulo 7

Produto Interno

Neste capítulo o corpo K será ou R ou C e usaremos a notação K.

7.1 Definições e ExemplosDefinição 7.1 Seja V um espaço vetorial sobre K. Um produto interno emV é uma função que a cada par (u, v) ∈ V × V associa um escalar, anotado〈u, v〉, de modo que:(a) 〈u1 + u2, v〉 = 〈u1, v〉+ 〈u2, v〉(b) 〈au, v〉 = a〈u, v〉(c) 〈u, v〉 = 〈v, u〉, onde a barra indica conjugação complexa,(d) 〈v, v〉 é um real positivo para todo v ∈ K, v 6= 0quaisquer que sejam u, v, u1, u2 ∈ V e a ∈ K.

Exemplo 7.1.1 Seja V = Kn. Se u = (x1, ..., xn) e v = (y1, ..., yn), defini-mos 〈u, v〉 = x1y1 + ...+ xnyn e obtemos um produto interno em Kn.

Exemplo 7.1.2 Seja V = C0([0, 1],K) o espaço vetorial das funções contí-nuas f : [0, 1] −→ K. Se f, g ∈ V , definimos um produto interno em V por

〈f, g〉 =

∫ 1

0

f(t)g(t)dt.

Exemplo 7.1.3 Seja V = C1([0, 1],R) o espaço vetorial das funções con-tínuas f : [0, 1] −→ R que têm derivada primeira contínua. Se f, g ∈ V ,

definimos um produto interno em V por 〈f, g〉 =

∫ 1

0

[f(t)g(t)+ f ′(t)g′(t)

]dt.

Exemplo 7.1.4 Sejam V1 e V2 espaços vetoriais sobre o mesmo corpo (Rou C) e 〈, 〉2 um produto interno em V2. Se T : V1 −→ V2 é linear injetora,

99

Page 103: Algebra Linear

CAPÍTULO 7. PRODUTO INTERNO 100

definimos um produto interno em V1 por 〈u, v〉1 = 〈T (u), T (v)〉2. Por exem-plo, seja T : V1 = C0

([0, 1],R

)−→ V2 = C0

([0, 1],R

), 〈, 〉2 como no exemplo

7.1.2 acima, tal que T (f)(t) = e−t2

2 f(t). É claro que T é linear injetora.

Portanto, 〈f, g〉1 =

∫ 1

0

e−t2

f(t)g(t)dt é um produto interno em V1.

Definição 7.2 Seja V um espaço vetorial sobre K munido de produto interno〈, 〉. Se v ∈ V definimos sua norma por ‖v‖ =

√〈v, v〉. A distância entre

u, v ∈ V é definida por d(u, v) = ‖u− v‖.

Proposição 7.1 (Pitágoras) Seja V um espaço vetorial com produto interno〈, 〉. Se u, v ∈ V , então ‖u + v‖2 = ‖u‖2 + ‖v‖2 se, e só se, Re〈u, v〉 = 0,onde Re z indica a parte real do número complexo z.

Dem. ‖u+ v‖2 = 〈u+ v, u+ v〉 = 〈u, u〉+ 〈u, v〉+ 〈v, u〉++〈v, v〉 = ‖u‖2 + ‖v‖2 + 〈u, v〉+ 〈u, v〉 = ‖u‖2 + ‖v‖2++2Re〈u, v〉.Portanto, ‖u+ v‖2 = ‖u‖2 + ‖v‖2 se, e só se, Re〈u, v〉 = 0.

Corolário 7.1.1 Se 〈u, v〉 = 0 então ‖u+ v‖ ≥ ‖u‖ com igualdade ⇔ v == 0.

Corolário 7.1.2 (lei do paralelogramo) Se u, v ∈ V , então:

‖u+ v‖2 + ‖u− v‖2 = 2(‖u‖2 + ‖v‖2

).

Proposição 7.2 Seja V um espaço vetorial com produto interno 〈, 〉. Então:(a) ‖av‖ = |a| · ‖v‖(b) ‖v‖ > 0 se v 6= 0(c) |〈u, v〉| ≤ ‖u‖ · ‖v‖ (desigualdade de Cauchy-Schwarz)(d) ‖u+ v‖ ≤ ‖u‖+ ‖v‖ (desigualdade triangular),quaisquer que sejam u, v ∈ V e a ∈ K.

Dem. (a) ‖av‖ =√〈av, av〉 =

√aa〈v, v〉 =

√|a|2 · 〈v, v〉 = |a| · ‖v‖.

(b) Se v 6= 0 temos 〈v, v〉 > 0, donde ‖v‖ > 0.(c) A desigualdade é verdadeira para v = 0. Suponhamos v 6= 0 e deter-

minemos c ∈ K de modo que cv seja a projeção ortogonal de u ao longo de

v, isto é, tal que 〈u − cv, v〉 = 0, donde c =〈u, v〉〈v, v〉

. Pelo corolário 7.1.1 da

Page 104: Algebra Linear

CAPÍTULO 7. PRODUTO INTERNO 101

proposição 7.1 temos ‖u‖ ≥ ‖cv‖ =|〈u, v〉|‖v‖2

· ‖v‖, donde, |〈u, v〉| ≤ ‖u‖ · ‖v‖,

com igualdade ⇔ u = cv.(d) ‖u+ v‖2 = ‖u‖2 + ‖v‖2 + 2Re〈u, v〉 ≤ ‖u‖2 + ‖v‖2 + 2|〈u, v〉| ≤

≤ ‖u‖2 + ‖v‖2 + 2‖u‖ · ‖v‖ =(‖u‖+ ‖v‖

)2, donde a tese.

Exemplo 7.1.5 Aplicando a desigualdade de Cauchy-Schwarz aos exemplos7.1.1 e 7.1.2 anteriores, obtemos:

(7.1.1)

∣∣∣∣∣n∑i=1

xiyi

∣∣∣∣∣ ≤(

n∑i=1

|xi|2)1/2

·

(n∑i=1

|yi|2)1/2

(7.1.2)∣∣∣∣∫ 1

0

f(t)g(t)dt

∣∣∣∣ ≤ (∫ 1

0

|f(t)|2dt)1/2

·(∫ 1

0

|g(t)|2dt)1/2

.

Definição 7.3 Seja V um espaço vetorial com produto interno 〈, 〉. u, v ∈ Vsão ortogonais ou perpendiculares se 〈u, v〉 = 0, o que indicamos por u⊥v.Se S ⊂ V , definimos S⊥ = {v ∈ V ; 〈u, v〉 = 0 ∀u ∈ S}. É imediato que S⊥ éum subespaço de V, chamado espaço ortogonal de S. Se U é o subespaço de Vgerado por S, então S⊥ = U⊥ pois se v é perpendicular a todos os elementosde S, é perpendicular também às combinações lineares de elementos de S, ouseja, aos elementos de U. Escrevemos v⊥S para indicar que v é perpendiculara todos os elementos de S; neste caso, dizemos que v é perpendicular a S.

Exemplo 7.1.6 Sejam V = C0([0, 2π],R), g1(t) = cos kt, g2(t) = sen kt,

onde k é um inteiro positivo, 〈f, g〉 =

∫ 2π

0

f(t)g(t)dt. Temos:

‖g1‖2 =

∫ 2π

0

cos2kt · dt = π

‖g2‖2 =

∫ 2π

0

sen2kt · dt = π

Os coeficientes de Fourier de f ∈ V são os números

ak =〈f, g1〉‖g1‖2

=1

π

∫ 2π

0

f(t)cos kt · dt,

Page 105: Algebra Linear

CAPÍTULO 7. PRODUTO INTERNO 102

bk =〈f, g2〉‖g2‖2

=1

π

∫ 2π

0

f(t)sen kt · dt

ea0

2=〈f, 1〉‖1‖2

=1

∫ 2π

0

f(t)dt.

Devido a esse exemplo, é usual (no caso geral) chamar c =〈u, v〉‖v‖2

de

coeficiente de Fourier de u em relação a v; o vetor cv é a projeção ortogonalde u sobre v.

Definição 7.4 Seja V um espaço vetorial com produto interno 〈, 〉. Dizemosque S ⊂ V é um conjunto ortogonal se dois vetores quaisquer de S sãoortogonais. S ⊂ V é um conjunto ortonormal se S é ortogonal e ‖v‖ = 1para todo v ∈ S.

Exemplo 7.1.7 A base canônica de Kn é um conjunto ortonormal relativa-mente ao produto interno usual de Kn.

Proposição 7.3 Seja V um espaço vetorial com produto interno 〈, 〉. SeX ⊂ V é um conjunto ortogonal de vetores não nulos, então X é linearmenteindependente.

Dem. Suponhamos a1x1 + ... + anxn = 0, n ∈ N, ai ∈ K, xi ∈ X. Então:

〈xi,n∑k=1

akxk〉 = 0, donde 〈xi, aixi〉 = 0, isto é, ai‖xi‖2 = 0 e, portanto,

ai = 0 (i = 1, ..., n), o que mostra ser X linearmente independente.

Proposição 7.4 Seja {v1, ..., vn, ...} um conjunto ortogonal de vetores não-nulos num espaço vetorial com produto interno 〈, 〉. Sejam v ∈ V e ci =〈v, vi〉‖vi‖2

(i = 1, 2, ...).

(a) Se a1, ..., an ∈ K, então

∥∥∥∥∥v −n∑i=1

civi

∥∥∥∥∥ ≤∥∥∥∥∥v −

n∑i=1

aivi

∥∥∥∥∥, com igualdade

Page 106: Algebra Linear

CAPÍTULO 7. PRODUTO INTERNO 103

se, e só se, ai = ci (i = 1, ..., n)

(b)∞∑i=1

|ci|2 · ‖vi‖2 ≤ ‖v‖2 (desigualdade de Bessel)

Dem. 〈v−n∑i=1

civi, vj〉 = 〈v, vj〉 −n∑i=1

ci〈vi, vj〉 = cj‖vj‖2− cj‖vj‖2 = 0 (j =

1, .., n), ou seja, o vetor v−n∑i=1

civi é perpendicular ao subespaço S gerado por

v1, ..., vn; em particular ao vetorn∑i=1

(ci−ai)vi. Do corolário 7.1.1 do teorema

de Pitágoras, resulta que

∥∥∥∥∥v −n∑i=1

civi

∥∥∥∥∥ ≤∥∥∥∥∥v −

n∑i=1

aivi

∥∥∥∥∥, com igualdade se,

e só se,n∑i=1

(ci − ai)vi = 0, o que equivale a ai = ci (i = 1, ..., n).

Ainda pelo corolário 7.1.1 do teorema de Pitágoras, temos ‖v‖2 ≥

∥∥∥∥∥n∑i=1

civi

∥∥∥∥∥2

=

n∑i,j=1

〈civi, cjvj〉 =n∑i=1

|ci|2‖vi‖2, válida para todo n ∈ N. Portanto,

∞∑i=1

|ci|2 · ‖vi‖2 ≤ ‖v‖2.

Exemplo 7.1.8 Dada a função contínua f : [0, 2π] −→ R, vamos achar,dentre os polinômios trigonométricos de grau m, P (t) =

a0

2+ a1cos t +

b1sen t + ... + amcos mt + bmsen mt, ai ∈ R, bi ∈ R, o que minimiza a

Page 107: Algebra Linear

CAPÍTULO 7. PRODUTO INTERNO 104

integral ∫ 2π

0

[f(t)− P (t)

]2dt.

Seja V = C0([0, 2π],R

)com o produto interno 〈f, g〉 =

∫ 2π

0

f(t)g(t)dt.

As funções 1, cos t, sen t, ..., cos nt, sen nt, ... pertencem a V e formam umconjunto ortogonal de vetores não-nulos, pois∫ 2π

0

cos kt · dt =

∫ 2π

0

sen kt · dt =

∫ 2π

0

cos kt · cos ht · dt =

=

∫ 2π

0

cos kt · sen lt · dt =

∫ 2π

0

sen kt · sen lt · dt = 0

se k 6= h, k 6= l, respectivamente, e∫ 2π

0

12dt = 2π,

∫ 2π

0

cos2kt · dt =

∫ 2π

0

sen2kt · dt = π (k = 1, 2, ...)

Pela proposição 7.4, ‖f−P‖2 =

∫ 2π

0

[f(t)−P (t)

]2dt é mínimo quando os

coeficientes de P (t) são os coeficientes de Fourier de f em relação às funções1, cos t, sen t, .... Então:

a0

2=

1

∫ 2π

0

f(t)dt, donde a0 =1

π

∫ 2π

0

f(t)dt

ak =1

π

∫ 2π

0

f(t)cos kt · dt e bk =1

π

∫ 2π

0

f(t)sen kt · dt

.

E a desigualdade (abstrata) de Bessel, nos dá:a2

0

4· 2π + a2

1 · π + b21 · π + ...+ a2n · π + b2n · π + ... ≤

∫ 2π

0

|f(t)|2dt,

ou seja,a2

0

2+∞∑n=1

(a2n + b2n) ≤

1

π

∫ 2π

0

|f(t)|2dt,

que é a desigualdade clássica de Bessel.

Exercício Sejam a1, ..., an reais não nulos. Prove:

(a21 + ...+ a2

n)

(1

a21

+ ...+1

a2n

)≥ n2.

Page 108: Algebra Linear

CAPÍTULO 7. PRODUTO INTERNO 105

7.2 Bases OrtonormaisDefinição 7.5 Seja V um espaço vetorial com produto interno 〈, 〉. Umabase (v1, ..., vn) de V é ortogonal se o conjunto {v1, ..., vn} é ortogonal, isto é,〈vi, vj〉 = 0 se i 6= j. Se, além disso, ‖vj‖ = 1 (j = 1, ..., n) então (v1, ..., vn)é uma base ortonormal.

Proposição 7.5 Todo espaço vetorial com produto interno, de dimensão fi-nita n ≥ 1, tem uma base ortonormal.

Dem. Seja (u1, ..., un) base de V. A partir desta base vamos obter uma baseortogonal, pelo chamado processo de ortogonalização de Gram-Schmidt.

Seja v1 = u1 (6= 0); para achar v2 ponhamos v2 = u2− a1v1, onde a1 ∈ Ké escolhido de modo que 〈v2, v1〉 = 0, isto é, 〈u2 − a1v1, v1〉 = 0, donde

a1 =〈u2, v1〉‖v1‖2

.

Como u1 e u2 são LI, é claro que v2 6= 0; além disso, o espaço gerado porv1 e v2 é o mesmo gerado por u1 e u2. A seguir, para achar v3, ponhamosv3 = u3 − b2v2 − b1v1, onde b1 e b2 são escolhidos de modo que 〈v3, v1〉 =

〈v3, v2〉 = 0, donde b1 =〈u3, v1〉‖v1‖2

e b2 =〈u3, v2〉‖v2‖2

.

Page 109: Algebra Linear

CAPÍTULO 7. PRODUTO INTERNO 106

Como u3 não está no espaço gerado por v1 e v2, temos v3 6= 0; além disso,o espaço gerado por v1, v2, v3 é o mesmo gerado por u1, u2, u3. Por indução,suponhamos construídos v1, ..., vk−1 que formam um conjunto ortogonal devetores não-nulos e são tais que o espaço por eles gerado é o mesmo geradopor u1, ..., uk−1. Para achar vk, ponhamos vk = uk − ck−1vk−1 − ... − c1v1,onde c1, ..., ck−1 são escolhidos de modo que 〈vk, v1〉 = ... = 〈vk, vk−1〉 = 0,

donde c1 =〈uk, v1〉‖v1‖2

, ..., ck−1 =〈uk, vk−1〉‖vk−1‖2

. Como uk não pertence ao espaço

gerado por v1, ..., vk−1 temos vk 6= 0; além disso, o espaço gerado por v1, ..., vké o mesmo gerado por u1, ..., uk. Obteremos assim, por esse processo, umasequência (v1, ..., vn) de vetores não-nulos, dois a dois ortogonais, donde LI,ou seja, uma base ortogonal de V. Para obter uma base ortonormal bastasubstituir cada vi por

vi‖vi‖

.

Exemplo 7.2.1 Vamos achar uma base ortogonal para o subespaço W de

V = C0([0, 1],R

), com 〈f, g〉 =

∫ 1

0

f(t)g(t)dt, gerado pelas funções 1, t, t2.

Seja f1(t) = 1 e tomemos f2(t) = t − af1(t) = t − a onde a =〈t, f1〉‖f1‖2

=∫ 1

0

t · dt =1

2. Logo: f2(t) = t− 1

2.

Ponhamos f3(t) = t2 − bf2(t)− cf1(t), onde b, c ∈ R são dados por:

b =〈t2, f2〉‖f2‖2

e c =〈t2, f1〉‖f1‖2

.

Temos:

‖f1‖2 = 1; ‖f2‖2 =

∫ 1

0

(t− 1

2

)2

dt =1

12; 〈t2, f1〉 =

∫ 1

0

t2dt =1

3;

〈t2, f2〉 =

∫ 1

0

t2(t− 1

2

)dt =

1

12.

Logo:

f3(t) = t2 − f2(t)−1

3f1(t) = t2 − t+

1

6.

Portanto,(

1, t− 1

2, t2 − t+

1

6

)é uma base ortogonal de W.

Proposição 7.6 Sejam V um espaço vetorial com produto interno 〈, 〉 eW ⊂V um subespaço de dimensão finita. Então:

V = W ⊕W⊥

Page 110: Algebra Linear

CAPÍTULO 7. PRODUTO INTERNO 107

Dem. Seja (v1, ..., vr) uma base ortonormal de W. Se v ∈ V , seja

u = v −r∑i=1

〈v, vi〉vi.

Temos:

〈u, vj〉 = 〈v −r∑i=1

〈v, vi〉vi, vj〉 = 〈v, vj〉 −r∑i=1

〈v, vi〉δij =

= 〈v, vj〉 − 〈v, vj〉 = 0 (j = 1, ..., r)

ou seja, u ∈ W⊥. Comor∑i=1

〈v, vi〉vi ∈ W , temos V = W +W⊥.

Se v ∈ W ∩W⊥ então 〈v, v〉 = 0, donde v = 0, isto é, W ∩W⊥ = {0}.Logo: V = W ⊕W⊥.

Corolário 7.6.1 Nas condições da proposição 7.6, se V tem dimensão finita,então: dim V = dim W + dim W⊥.Obs. Sejam V um espaço vetorial com produto interno 〈, 〉 e (e1, ..., en) umabase ortonormal de V. Se u, v ∈ V , u = a1e1 + ... + anen, v = b1e1 + ... +

bnen, então 〈u, v〉 =n∑

i,j=1

〈aiei, bjej〉 =n∑

i,j=1

aibjδij =n∑i=1

aibi, igual ao produto

interno usual dos vetores a = (a1, ..., an) e b = (b1, ..., bn) de Kn. Se a base

(e1, ..., en) não é ortonormal e se 〈ei, ej〉 = gij ∈ K, então 〈u, v〉 =n∑

i,j=1

gijaibj.

Se V é um espaço vetorial sobre K, de dimensão n, uma maneira de sedefinir um produto interno em V é a seguinte: tome uma base arbitrária(e1, ..., en) de V e defina o produto interno, de u = a1e1 + ... + anen por

v = b1e1 + ...+ bnen, por meio de 〈u, v〉 =n∑i=1

aibi. Em relação a este produto

interno, a base (e1, ..., en) é ortonormal.

Exercícios

1. Seja E = (u1, u2, u3) a base de R3 formada pelos vetores u1 = (1, 1, 1), u2 =(1,−1, 1) e u3 = (1,−1,−1), e seja F = (v1, v2, v3) a base ortogonalobtida de E pelo processo de Gram-Schmidt. Ache a matriz P de pas-sagem de E para F . Observe que P é triangular superior.

Page 111: Algebra Linear

CAPÍTULO 7. PRODUTO INTERNO 108

2. Dado o vetor unitário u = (α1, ..., αn) ∈ Rn forme a matriz A = (αi, αj)– n× n. Seja H : Rn −→ Rn o operador cuja matriz na base canônicaé In − 2A. Prove que para todo v ∈ Rn tem-se H(v) = v − 2〈v, u〉u eque ‖Hv‖ = ‖v‖. (H é a reflexão no hiperplano de Rn cuja normal éu).

3. Em MR(n) considere 〈A,B〉 =∑i,j

aijbij, onde A = (aij) e B = (bij).

Mostre que 〈, 〉 é um produto interno. Mostre que o subespaço A dasmatrizes antissimétricas é o complemento ortogonal do subespaço Sdas matrizes simétricas em MR(n).

7.3 Relações entre V e V ∗

Seja V um espaço vetorial com produto interno 〈, 〉. Se v ∈ V , a aplicaçãou ∈ V

Tv7−→ 〈u, v〉 ∈ K é uma forma linear, isto é, um elemento do dualV ∗ = L(V,K).

Proposição 7.7 Seja V um espaço vetorial de dimensão finita sobre K,munido de um produto interno 〈, 〉. A aplicação v ∈ V

T7−→ Tv ∈ V ∗,Tv(u) = 〈u, v〉, é bijetora.

Dem. Tv1+v2(u) = 〈u, v1 + v2〉 = 〈u, v1〉+ 〈u, v2〉 = Tv1(u) + Tv2(u).Tav(u) = 〈u, av〉 = a〈u, v〉 = aTv(u), de modo que T não é linear se

K = C. Dizemos que ela é semi-linear.T : V −→ V ∗ é injetora: Tv1 = Tv2 se, e só se, 〈u, v1〉 = 〈u, v2〉 para todo

u ∈ V ⇔ 〈u, v1 − v2〉 = 0 para todo u ∈ V ⇔ v1 = v2.T : V −→ V ∗ é sobrejetora: dado w ∈ V ∗, seja (v1, ..., vn) uma base

ortonormal de V e seja v = a1v1 + ...+anvn com ai = w(vi). Então, Tv(vi) =〈vi, v〉 = ai = w(vi), 1 ≤ i ≤ n, e, portanto, Tv = w.Obs. No caso K = R a aplicação T é linear bijetora, isto é, um isomorfismoentre V e V ∗.

No caso K = C a aplicação T é semi-linear bijetora; ela é um anti-isomorfismoentre V e V ∗.

Se W ⊂ V é um subespaço, vimos que W⊥ é subespaço de V e W 0 ésubespaço de V ∗, ondeW⊥ = {v ∈ V ; 〈u, v〉 = 0 ∀u ∈ W} eW 0 = {α ∈ V ∗; α(u) = 0 ∀u ∈ W}.

Page 112: Algebra Linear

CAPÍTULO 7. PRODUTO INTERNO 109

Se v ∈ W⊥ então Tv ∈ W 0 pois Tv(u) = 〈u, v〉 = 0 para todo u ∈ W .Assim, T : V −→ V ∗ leva W⊥ em W 0.

Um argumento análogo ao usado na proposição 7.7 mostra que T : W⊥ −→W 0 é um isomorfismo no caso K = R e um anti-isomorfismo no caso K = C.Observemos também que se dim V = n e dim W = r então dim W⊥ = n−r,como já vimos anteriormente.

A proposição 7.7 nos diz que, dado um funcional linear w ∈ V ∗, existeum e um único vetor v ∈ V tal que w = Tv, isto é, w(u) = 〈u, v〉 para todou ∈ V , ou seja, v ∈ V representa a forma linear w ∈ V ∗.

Exemplo 7.3.1 Sejam U ⊂ Rn aberto e f : U −→ R uma aplicação dife-renciável. A diferencial de f em p ∈ U é o funcional linear df(p) ∈ (Rn)∗

tal que, para todo v ∈ Rn, df(p) · (v) =∂f

∂v(p) = derivada de f no ponto p na

direção de v.Considerando em Rn o produto interno usual, o vetor que representa df(p)

é o gradiente de f em p, Of(p) = grad f(p). Assim, Of(p) é o vetor de Rn

tal que df(p) ·v = 〈Of(p), v〉 =∂f

∂v(p). Se (e1, ..., en) é a base canônica de Rn

e Of(p) = a1e1 + ... + anen, então ai = 〈Of(p), ei〉 =∂f

∂xi(p), (1 ≤ i ≤ n),

ou seja, Of(p) =

(∂f

∂x1

(p), ...,∂f

∂xn(p)

).

Exemplo 7.3.2 Sejam V um espaço vetorial de dimensão finita sobre K,com produto interno 〈, 〉, Tv(u) = 〈u, v〉, que sabemos ser semi-linear bijetora.Vamos definir um produto interno em V ∗ por meio de 〈Tv, Tu〉 = 〈u, v〉. Defato, temos:(a) 〈Tv1 +Tv2 , Tu〉 = 〈Tv1+v2 , Tu〉 = 〈u, v1+v2〉 = 〈u, v1〉+〈u, v2〉 = 〈Tv1 , Tu〉+〈Tv2 , Tu〉.(b) 〈aTv, Tu〉 = 〈Tav, Tu〉 = 〈u, av〉 = a〈u, v〉 = a〈Tv, Tu〉.(c) 〈Tv, Tu〉 = 〈u, v〉 = 〈v, u〉 = 〈Tu, Tv〉.(d) 〈Tv, Tv〉 = 〈v, v〉 = ‖v‖2 > 0 se v 6= 0.

A partir de (V ∗, 〈, 〉), usando o método acima, podemos introduzir um pro-duto interno em V ∗∗. Seja L : V ∗ −→ V ∗∗ definido por Lα(β) = 〈β, α〉, α, β ∈V ∗. Definimos 〈Lα, Lβ〉 = 〈β, α〉. Vamos mostrar que L ◦ T : V −→ V ∗∗

coincide com o isomorfismo canônico J : V −→ V ∗∗, Jv(α) = α(v), v ∈V, α ∈ V ∗, isto é, vamos mostrar que LTv = Jv.

Temos: LTv(Tu) = 〈Tu, Tv〉 = 〈v, u〉 = Tu(v) = Jv(Tu), donde resultaLTv = Jv, ou seja, L ◦ T = J .

Page 113: Algebra Linear

CAPÍTULO 7. PRODUTO INTERNO 110

7.4 AdjuntaSejam V e W espaços vetoriais de dimensão finita, ambos com produto in-terno, e T : V −→ W linear.

Proposição 7.8 Existe uma única aplicação linear T ∗ : W −→ V tal que〈Tv, w〉 = 〈v, T ∗w〉 para todo v ∈ V e todo w ∈ W .

Dem. Seja w ∈ W fixo mas arbitrário e seja β : V −→ K o funcionallinear definido por β(v) = 〈Tv, w〉. Pela proposição 7.7 existe um únicou = T ∗w ∈ V tal que β(v) = 〈v, T ∗w〉, ou seja, 〈Tv, w〉 = 〈v, T ∗w〉. Vamosmostrar que T ∗ : W −→ V assim definida é linear. Se v ∈ V, w1, w2 ∈ Wtemos:〈v, T ∗(w1 + w2)〉 = 〈Tv, w1 + w2〉 = 〈Tv, w1〉 + 〈Tv, w2〉 = 〈v, T ∗w1〉 +〈v, T ∗w2〉 = 〈v, T ∗w1 + T ∗w2〉 o que mostra ser T ∗(w1 + w2) igual a T ∗w1 +T ∗w2.

Se a ∈ K, temos: 〈v, T ∗(aw)〉 = 〈Tv, aw〉 = a〈Tv, w〉 = a〈v, T ∗w〉 =〈v, aT ∗w〉 para todo w ∈ W , donde T ∗(aw) = aT ∗(w).

Definição 7.6 A aplicação linear T ∗ : W −→ V tal que 〈Tv, w〉 = 〈v, T ∗w〉quaisquer que sejam v ∈ V , w ∈ W , chama-se a adjunta de T. Se V = W eT = T ∗ o operador linear T : V −→ V chama-se auto-adjunto (se K = R diz-se também que T é simétrico; se K = C diz-se também que T é hermitiano).

Proposição 7.9 Seja V um espaço vetorial de dimensão finita sobre K, comproduto interno 〈, 〉. Se a ∈ K e L, T : V −→ V são lineares, então:(a) (L+ T )∗ = T ∗ + L∗;(b) (aT )∗ = a · T ∗;(c) (L ◦ T )∗ = T ∗ ◦ L∗;(d) (T ∗)∗ = T .

Dem.(a) 〈(L+T )(u), v〉 = 〈Lu+Tu, v〉 = 〈Lu, v〉+〈Tu, v〉 = 〈u, L∗v〉+〈u, T ∗v〉 == 〈u, L∗v + T ∗v〉 = 〈u, (L∗ + T ∗)(v)〉 quaisquer que sejam u, v ∈ V .Portanto: (L+ T )∗ = L∗ + T ∗.(b) 〈(aT )(u), v〉 = 〈aT (u), v〉 = a〈u, T ∗v〉 = 〈u, aT ∗(v)〉 == 〈u, (aT ∗)(v)〉, donde (aT )∗ = aT ∗.(c) 〈(L ◦ T )(u), v〉 = 〈L(Tu), v〉 = 〈Tu, L∗v〉 = 〈u, T ∗L∗v〉 = 〈u, T ∗ ◦ L∗(v)〉,donde (L ◦ T )∗ = T ∗ ◦ L∗.(d) 〈T ∗u, v〉 = 〈v, T ∗u〉 = 〈Tv, u〉 = 〈u, Tv〉, donde (T ∗)∗ = T .Obs. Se L = L∗ e T = T ∗ são operadores auto-adjuntos em V, então(L ◦ T )∗ = T ∗ ◦L∗ = T ◦L e L ◦ T é auto-adjunto se, e só se, T ◦L = L ◦ T .

Page 114: Algebra Linear

CAPÍTULO 7. PRODUTO INTERNO 111

Exemplo 7.4.1 Sejam V e W espaços vetoriais de dimensão finita munidosde produto interno, E = (v1, ..., vn) e F = (w1, ..., wm) bases ortonormais deV e W, respectivamente. Se T : V −→ W é linear e

[T]EF = A = (aij) –

m× n, vamos mostrar que[T ∗]FE = A∗ = A

t, A∗ = (bij) – n×m.Temos:

〈vi, T ∗wj〉 = 〈Tvi, wj〉Mas:

〈vi, T ∗wj〉 = 〈vi,m∑k=1

bkjvk〉 = bij

〈Tvi, wj〉 =n∑k=1

〈akivk, wj〉 = aji.

Portanto, bij = aji, donde A∗ = At.

Definição 7.7 Seja A = (aij) – m × n. A adjunta de A é a matriz A∗ =

At= (bij) – n ×m, onde bij = aji. Se A é quadrada e A = A∗ dizemos que

A é auto-adjunta (simétrica se K = R, hermitiana se K = C).

Exemplo 7.4.2 Os autovalores de um operador auto-adjunto T = T ∗ :V −→ V são reais.

De fato, se v 6= 0 e Tv = λv = T ∗v, temos:〈Tv, v〉 = 〈v, T ∗v〉, donde, 〈λv, v〉 = 〈v, λv〉 e daí vem: λ〈v, v〉 = λ〈v, v〉,donde λ = λ.

Exemplo 7.4.3 Os autovetores, associados a autovalores distintos, de umoperador auto-adjunto T = T ∗ : V −→ V , são ortogonais.

De fato, se Tv1 = λ1v1, T v2 = λ2v2, λ1 6= λ2, então(λ1 − λ2)〈v1, v2〉 = 〈λ1v1, v2〉 − 〈v1, λ2v2〉 = 〈Tv1, v2〉 − 〈v1, T v2〉 = 0, donde〈v1, v2〉 = 0.Obs. A proposição 7.8 mostra que se dim V é finita, todo T ∈ L(V ) temum adjunto T ∗ ∈ L(V ). Se V não tem dimensão finita, dado T ∈ L(V ) podeou não existir T ∗ ∈ L(V ) tal que 〈Tv, u〉 = 〈v, T ∗u〉 para u, v ∈ V quaisquer.

Exemplo 7.4.4 Seja V o espaço vetorial real das funções f : R −→ Rde classe C∞ que se anulam fora de [0, 1], com o produto interno 〈f, g〉 =∫ 1

0

f(t)g(t)dt. Seja D : V −→ V o operador de derivação. Temos:

〈Df, g〉 =

∫ 1

0

f ′(t)g(t)dt = f(t)g(t)∣∣∣10−∫ 1

0

f(t)g′(t)dt = −〈f,Dg〉 = 〈f,D∗g〉,

donde D∗ = −D. Neste exemplo V tem dimensão infinita.

Page 115: Algebra Linear

CAPÍTULO 7. PRODUTO INTERNO 112

Proposição 7.10 Seja V um espaço vetorial complexo, de dimensão finita,munido de um produto interno 〈, 〉. Se T : V −→ V é linear e tal que〈Tv, v〉 = 0 para todo v ∈ V , então T = 0.

Dem. Se u, v ∈ V , temos a identidade

〈T (u+ v), u+ v〉 − 〈Tu, u〉 − 〈Tv, v〉 = 〈Tu, v〉+ 〈Tv, u〉.

Mas se 〈Tw,w〉 = 0 para todo w ∈ V , então essa identidade nos dá:

〈Tu, v〉+ 〈Tv, u〉 = 0 �

Substituindo-se u por iu (i2 = −1), obtemos:〈Tv, iu〉+ 〈T (iu), v〉 = 0, donde−i〈Tv, u〉+ i〈Tu, v〉 = 0, ou ainda−〈Tv, u〉+ 〈Tu, v〉 = 0 ♦Somando � com ♦, vem: 2〈Tu, v〉 = 0, donde 〈Tu, v〉 = 0 para todo u ∈ Ve para todo v ∈ V , donde T = 0.

Proposição 7.11 Sejam V um espaço vetorial real, de dimensão finita, mu-nido de um produto interno 〈, 〉 e T : V −→ V linear simétrico. Se 〈Tv, v〉 =0 para todo v ∈ V , então T = 0.

Dem. A identidade 〈T (u+ v), u+ v〉− 〈Tu, u〉− 〈Tv, v〉 = 〈Tu, v〉+ 〈Tv, u〉nos dá

〈Tu, v〉+ 〈Tv, u〉 = 0.

Mas, 〈Tv, u〉 = 〈v, Tu〉 = 〈Tu, v〉.Portanto, 2〈Tu, v〉 = 0, donde T = 0.

Proposição 7.12 Sejam V, W espaços vetoriais de dimensão finita sobreK, munidos de produto interno, e T : V −→ W linear. Então:

(a) N (T ∗) = (Im T )⊥ ; (b) Im T ∗ = N (T )⊥

(c) N (T ) = (Im T ∗)⊥ ; (d) Im T = N (T ∗)⊥

Dem. É suficiente provar (a), as outras igualdades sendo consequênciasimediatas. Temos:v ∈ N (T ∗) ⇔ T ∗v = 0 ⇔ 〈u, T ∗v〉 = 0 para todo u ∈ V ⇔ 〈Tu, v〉 = 0 paratodo u ∈ V ⇔ v ∈ (Im T )⊥.

Corolário 7.12.1 O posto de T ∗ é igual ao posto de T.Dem. dim Im T ∗ = dim V − dim N (T ) = dim Im T

Page 116: Algebra Linear

CAPÍTULO 7. PRODUTO INTERNO 113

7.5 Exercícios do Capítulo 71. Seja V um espaço vetorial sobre K munido de um produto interno, e seja

(v1, ..., vn) uma base de V. Dados a1, a2, ..., an ∈ K arbitrários, proveque existe um, e um único, vetor w ∈ V tal que 〈w, vj〉 = aj, 1 ≤ j ≤ n.

2. Se T é invertível e TST ∗ é auto-adjunto, prove que S é auto-adjunto.

3. Seja T : V −→ V um operador diagonalizável. Prove que é possíveldefinir um produto interno em V em relação ao qual T = T ∗.

4. Seja V um espaço vetorial de dimensão finita sobre K e seja T : V −→V um operador diagonalizável. Se W ⊂ V é um subespaço tal queT (W ) ⊂ W , prove que T

∣∣W

: W −→ W é diagonalizável em W.

5. Sejam S, T : V −→ V operadores auto-adjuntos. Prove que existe baseortonormal de V formada por autovetores comuns a S e T se, e só se,S ◦ T = T ◦ S.

6. Seja Mn(C) o espaço vetorial complexo das matrizes n× n. Prove que〈A,B〉 = tr(AB∗) é um produto interno em Mn(C) e ache o comple-mento ortogonal do subespaço das matrizes diagonais (Obs. B∗ = B

t).

7. Seja W um subespaço de dimensão finita de um espaço vetorial V mu-nido de produto interno. Se E : V −→ W é a projeção ortogonal de Vsobre W, prove que 〈E(u), v〉 = 〈u,E(v)〉 para u, v ∈ V quaisquer.

8. Sejam V = W1⊕W2, 〈, 〉1 e 〈, 〉2 produtos internos em W1 e W2 respec-tivamente. Mostre que existe um único produto interno 〈, 〉 em V talque W2 = W⊥

1 e 〈u, v〉 = 〈u, v〉k quando u, v ∈ Wk, k = 1, 2.

9. Seja V um espaço vetorial complexo com produto interno. Prove queT : V −→ V linear é auto-adjunto se, e só se, 〈Tv, v〉 é real para todov ∈ V .

Page 117: Algebra Linear

Capítulo 8

Operadores Unitários e Normais

8.1 DefiniçõesDefinição 8.1 Sejam V, W espaços vetoriais sobre K, munidos de produtointerno. Dizemos que T : V −→ W é uma isometria se T é linear bijetora e〈Tu, Tv〉 = 〈u, v〉 quaisquer que sejam u, v ∈ V .

Assim, uma isometria é um isomorfismo que preserva o produto interno.

Proposição 8.1 Seja V um espaço vetorial com produto interno. Então:4〈u, v〉 = ‖u+ v‖2 − ‖u− v‖2 se K = R.4〈u, v〉 = ‖u+ v‖2 − ‖u− v‖2 + i‖u+ iv‖2 − i〈u− iv〉2 se K = C, quaisquerque sejam u, v ∈ V .Dem. Exercício.

Proposição 8.2 Sejam V, W espaços vetoriais de mesma dimensão finitasobre K, munidos de produto interno, e T : V −→ W linear. São equivalen-tes:(a)〈Tu, Tv〉 = 〈u, v〉; (b)‖Tv‖ = ‖v‖;(c) T é isometria; (d) T leva base ortonormal de V em base ortonormal de W;(e) T leva alguma base ortonormal de V em base ortonormal de W.

Dem. (a)⇒ (b): Óbvio.(b) ⇒ (c): se v 6= 0 então T (v) 6= 0, donde T é injetora e, como dim V =dim W , T é bijetora. Pela proposição 8.1, e pela hipótese, temos (no casoK = C):4〈Tu, Tv〉 = ‖T (u+ v)‖2 − ‖T (u− v)‖2 + i‖T (u+ iv)‖2 − i‖T (u− iv)‖2 == ‖u+ v‖2−‖u− v‖2 + i‖u+ iv‖2− i‖u− iv‖2 = 4〈u, v〉, donde 〈Tu, Tv〉 =〈u, v〉. Portanto, T é isometria.

114

Page 118: Algebra Linear

CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 115

(c) ⇒ (d): seja (v1, ..., vn) base ortonormal de V. Como T é isomorfismo,(Tv1, ..., T vn) é base de W. Do fato de ser 〈Tvi, T vj〉 = 〈vi, vj〉 = δij, resultaque essa base de W é ortonormal.(d)⇒ (e): Óbvio.(e) ⇒ (a): seja (v1, ..., vn) base ortonormal de V tal que (Tv1, ..., T vn) sejabase ortonormal de W. Então:

〈Tvi, T vj〉 = 〈vi, vj〉 = δij.

Se u = a1v1 + ...+ anvn e v = b1v1 + ...+ bnvn, então:

〈u, v〉 =n∑i=1

aibi e 〈Tu, Tv〉 = 〈n∑i=1

aiT (vi),n∑j=1

bjT (vj)〉 =n∑

i,j=1

aibj〈Tvi, T vj〉 =

=n∑

i,j=1

aibjδij =n∑i=1

aibi.

Portanto,〈Tu, Tv〉 = 〈u, v〉

Corolário 8.2.1 Sejam V, W espaços vetoriais de dimensão finita sobre K,munidos de produto interno. V e W são isométricos (isto é, existe isometriaT : V −→ W ) se, e só se, dim V = dim W .

Dem. Sejam (v1, ..., vn) e (w1, ..., wn) bases ortonormais de V e W, respecti-vamente. Definamos T : V −→ W linear por T (vi) = wi, 1 ≤ i ≤ n. EntãoT é isometria. A recíproca é imediata.

Definição 8.2 Sejam V um espaço vetorial com produto interno 〈, 〉 e T :V −→ V linear. Dizemos que T é um operador unitário se T é uma isome-tria.

No caso de V ter dimensão finita, a proposição 8.2 mostra que T é uni-tário se, e só se, preserva o produto interno. No caso em que K = R umoperador unitário é usualmente chamado de ortogonal.

Exemplo 8.1.1 Seja V1 = C0([0, 1],R) o espaço vetorial real das funções

contínuas f : [0, 1] −→ R com o produto interno 〈f, g〉1 =

∫ 1

0

f(t)g(t)e−t2

dt,

e seja V2 = C0([0, 1],R) com o produto interno 〈f, g〉2 =

∫ 1

0

f(t)g(t)dt. A

aplicação T : V1 −→ V2 definida por (Tf)(t) = e−t2

2 f(t), t ∈ [0, 1], é linear

bijetora e preserva o produto interno pois 〈Tf, Tg〉2 =

∫ 1

0

e−t2

f(t)g(t)dt =

〈f, g〉1. Portanto, T : V1 −→ V2 é uma isometria.

Page 119: Algebra Linear

CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 116

Proposição 8.3 Sejam V um espaço vetorial com produto interno, de di-mensão finita e T : V −→ V linear. T é unitário se, e só se, T ∗ ◦ T = I(=T ◦ T ∗).

Dem. T é unitário se, e só se, 〈Tu, Tv〉 = 〈u, v〉 para todo u, v ∈ V , o queequivale a 〈T ∗Tu, v〉 = 〈u, v〉 e, portanto, equivale a T ∗ · T = I.

Definição 8.3 Dizemos que A ∈ Mn(K) é unitária se A∗A = In. Lembre-mos que A∗ = At. Se K = R temos A∗ = At e é usual dizer que A é ortogonalse AtA = In.

Corolário 8.3.1 Sejam V um espaço vetorial de dimensão finita, munido deum produto interno e T : V −→ V linear. T é unitário se, e só se, a matrizde T em alguma (ou toda) base ortonormal de V é uma matriz unitária.Dem. Imediata.

Exemplo 8.1.2 Consideramos o Rn com o produto interno usual. Um movimentorígido é uma aplicação T : Rn −→ Rn tal que ‖Tu − Tv‖ = ‖u − v‖ paratodo u, v ∈ Rn. Por exemplo, Tv0(v) = v + v0, onde v0 ∈ Rn é fixo, ou seja,uma translação, é um movimento rígido.(a) Vamos mostrar que se T : Rn −→ Rn é um movimento rígido talque T (0) = 0, então T é linear e ortogonal. Observemos que, neste caso,‖Tu‖ = ‖T (u)− T (0)‖ = ‖u− 0‖ = ‖u‖. Além disso,

‖Tu− Tv‖2 = 〈Tu− Tv, Tu− Tv〉 = ‖Tu‖2 + ‖Tv‖2 − 2〈Tu, Tv〉.

Por outro lado, ‖Tu− Tv‖2 = ‖u− v‖2 = ‖u‖2 + ‖v‖2 − 2〈u, v〉.Resulta: 〈Tu, Tv〉 = 〈u, v〉, ou seja, se T é movimento rígido e T (0) = 0,

então T preserva o produto interno.Temos:

‖T (u+v)−T (u)−T (v)‖2 = ‖T (u+v)‖2+‖Tu‖2+‖Tv‖2−2〈T (u+v), T (u)〉−

−2〈T (u+ v), T (v)〉+ 2〈Tu, Tv〉 = ‖u+ v‖2 + ‖u‖2 + ‖v‖2 − 2〈u+ v, u〉−

−2〈u+ v, v〉+ 2〈u, v〉 = 2‖u‖2 + 2‖v‖2 + 2〈u, v〉 − 2‖u‖2 − 2‖v‖2 − 4〈u, v〉+

+2〈u, v〉 = 0. Logo: T (u+ v) = T (u) + T (v).Analogamente,

‖T (av)−aT (v)‖2 = ‖T (av)‖2+a2‖Tv‖2−2a〈T (av), T (v)〉 = ‖av‖2+a2‖v‖2−

Page 120: Algebra Linear

CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 117

−2a〈av, v〉 = 0.Logo: T (av) = aT (v), a ∈ R.Portanto, T é uma aplicação linear ortogonal.

(b) Sejam T : Rn −→ Rn movimento rígido, T (0) = v0 e T−v0(v) = v−v0.A composta de movimentos rígidos é um movimento rígido, como é fácil dese verificar, de modo que L = T−v0 ◦ T é um movimento rígido e L(0) =T−v0(T (0)) = T−v0(v0) = 0. Pela parte (a) vem que L : Rn −→ Rn é umoperador ortogonal. Como (T−v0)

−1 = Tv0 e L = T−v0 ◦T , vem L = T−1−v0 ◦T ,

donde T = Tv0 ◦ L, ou seja, todo movimento rígido é a composta de umatranslação com um operador ortogonal:

T (v) = L(v) + v0, para todo v ∈ Rn.

Definição 8.4 Sejam V um espaço vetorial de dimensão finita sobre K, mu-nido de um produto interno e T : V −→ V linear. Dizemos que T é normalse T comuta com seu adjunto, isto é, se T ◦ T ∗ = T ∗ ◦ T . É claro que todooperador auto-adjunto é normal, bem como todo operador unitário; é clarotambém que se T : V −→ V é normal e a ∈ K, então aT é normal. Em geral,a soma e o produto (composta) de operadores normais não são normais, masvale o seguinte resultado.

Proposição 8.4 Sejam V um espaço vetorial de dimensão finita sobre K,munido de um produto interno e T1, T2 : V −→ V operadores normais. SeT1◦T ∗2 = T ∗2 ◦T1 (ou T2◦T ∗1 = T ∗1 ◦T2), então T1 +T2 e T1◦T2 são operadoresnormais.

Dem. É claro que T1 ◦ T ∗2 = T ∗2 ◦ T1 se, e só se, T2 ◦ T ∗1 = T ∗1 ◦ T2.Temos:

(T1 +T2)(T1 +T2)∗ = (T1 +T2)(T

∗1 +T ∗2 ) = T1 ◦T ∗1 +T1 ◦T ∗2 +T2 ◦T ∗1 +T2 ◦T ∗2 .

E:

(T1+T2)∗ ·(T1+T2) = (T ∗1 +T ∗2 )(T1+T2) = T ∗1 ◦T1+T ∗1 ◦T2+T ∗2 ◦T1+T ∗2 ◦T2.

Como T1◦T ∗1 = T ∗1 ◦T1, T2◦T ∗2 = T ∗2 ◦T2, T1◦T ∗2 = T ∗2 ◦T1 e T2◦T ∗1 = T ∗1 ◦T2,vem que T1 + T2 é normal.Temos também:

T1T2(T1T2)∗ = T1T2T

∗2 T∗1 = T1T

∗2 T2T

∗1 = T ∗2 T1T

∗1 T2 = T ∗2 T

∗1 T1T2 = (T1T2)

∗T1T2,

donde T1T2 é normal.

Page 121: Algebra Linear

CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 118

Proposição 8.5 Sejam V um espaço vetorial complexo de dimensão finita,munido de um produto interno, e T : V −→ V linear. T é normal se, e sóse, ‖T ∗v‖ = ‖Tv‖ para todo v ∈ V .

Dem. ‖T ∗v‖ = ‖Tv‖ se, e só se, 〈T ∗v, T ∗v〉 = 〈Tv, Tv〉 se, e só se,〈TT ∗v, v〉 = 〈T ∗Tv, v〉 para todo v ∈ V se, e só se, TT ∗ = T ∗T pela proposi-ção 7.10.

Definição 8.5 Dizemos que A ∈Mn(K) é normal se AA∗ = A∗A.Obs. É imediato verificar que T : V −→ V é normal se, e só se, a matrizde T numa base ortonormal de V é uma matriz normal.

Exemplo 8.1.3 A =

[1 ii 1

]é normal pois

A∗ = At=

[1 −i−i 1

]e

AA∗ = A∗A =

[2 00 2

].

Exemplo 8.1.4 T : V −→ V é normal ⇔ T − λI é normal, λ ∈ K.Temos: (T − λI)(T − λI)∗ = (T − λI)(T ∗ − λI) = TT ∗ − λT ∗ − λT + |λ|2I.

(T − λI)∗ · (T − λI) = (T ∗ − λI)(T − λI) = T ∗T − λT − λT ∗ + |λ|2I.Logo, T − λI é normal ⇔ TT ∗ = T ∗T ⇔ T é normal.

Exemplo 8.1.5 Se V é um espaço vetorial complexo, T : V −→ V é normale Tv = λv, v 6= 0, então T ∗v = λv.De fato, se T é normal, então ‖(T − λI)v‖ = ‖(T ∗ − λI)(v)‖ = 0, dondeT ∗v = λv. Se T é unitário então 〈Tv, Tv〉 = 〈λv, λv〉 = |λ|2〈v, v〉 = 〈v, v〉,donde |λ| = 1.

Proposição 8.6 (Teorema Espectral para Operadores Normais)Sejam V um espaço vetorial de dimensão finita n ≥ 1 sobre o corpo K,

munido de um produto interno, e T : V −→ V um operador normal. Se opolinômio característico de T tem todas suas raízes em K (por exemplo, seK = C), então existe base ortonormal F de V formada por autovetores deT, isto é, a matriz [T ]FF é diagonal.

Page 122: Algebra Linear

CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 119

Dem. Já vimos que existe base E de V na qual a matriz de T é triangularsuperior. Usando o processo de Gram-Schmidt obtemos, a partir de E, umabase ortonormal F = (v1, ..., vn) de V na qual [T ]FF = B = (bij) é triangularsuperior e temos [T ∗]FF = B∗ = Bt. Como T ◦ T ∗ = T ∗ ◦ T obtemos BB∗ =B∗B. Comparando os elementos diagonais de BB∗ e B∗B, vemos que:

|b11|2 +|b12|2 + ... +|b1n|2 = |b11|2|b22|2 + ... +|b2n|2 = |b12|2 + |b22|2

...|bnn|2 = |b1n|2 + |b2n|2 + ...+ |bnn|2

,

donde resulta que bij = 0 para i 6= j, ou seja, B é diagonal e F = (v1, ..., vn)é base ortonormal de V formada por autovetores de T.

Corolário 8.6.1 Se K = C e T é unitário, então T é diagonalizável.

Corolário 8.6.2 S e T é auto-adjunto, então T é diagonalizável.

Obs. A recíproca da proposição 8.6 também é verdadeira, isto é, seexiste base ortonormal F de V formada por autovetores de T, então T é

normal. De fato, se [T ]FF = B =

λ1 0. . .

0 λn

então B∗ =

λ1 0. . .

0 λn

e

BB∗ = B∗B =

|λ1|2 0. . .

0 |λn|2

e B é normal, donde T é normal.

8.2 Operadores PositivosDefinição 8.6 Sejam V um espaço vetorial com produto interno e T : V −→V linear. Dizemos que T é positivo, e escrevemos T > 0, se T = T ∗ e〈Tv, v〉 > 0 para todo v 6= 0. Se T = T ∗ e 〈Tv, v〉 ≥ 0 para todo v ∈ V ,dizemos que T é não-negativo, e escrevemos T ≥ 0.

Proposição 8.7 Um operador auto-adjunto T : V −→ V é positivo (resp.não-negativo) se, e só se, seus autovalores são todos positivos (resp. não-negativos).Dem. Se T > 0 e Tv = λv com v 6= 0, então λ〈v, v〉 = 〈λv, v〉 = 〈Tv, v〉 > 0,donde λ > 0. Reciprocamente, se os autovalores de T são todos positivos,seja (v1, ..., vn) base ortonormal de V tal que Tvi = λivi, 1 ≤ i ≤ n. Se

Page 123: Algebra Linear

CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 120

v ∈ V então v =n∑i=1

aivi e 〈Tv, v〉 =n∑

i,j=1

〈aiλivi, ajvj〉 =n∑i=1

λi|ai|2 > 0,

donde T > 0. O caso T ≥ 0 é análogo.

Corolário 8.7.1 Seja T ≥ 0. Se v ∈ V é tal que 〈Tv, v〉 = 0, então Tv = 0.

Dem. Sejam λ1, ..., λr os autovalores não-nulos de T e v =r∑i=1

aivi como

acima. Então, 〈Tv, v〉 = 0 nos dár∑i=1

λi|ai|2 = 0 donde a1 = ... = ar = 0, o

que implica Tv = 0.

Corolário 8.7.2 T : V −→ V é positivo se, e só se, T é invertível e T ≥ 0.Dem. Se T > 0 então T ≥ 0 e Tv 6= 0 para todo v 6= 0, donde T é invertível.Reciprocamente, se T ≥ 0 é invertível então Tv 6= 0 para todo v 6= 0 e 〈Tv, v〉é positivo pelo corolário 8.7.1, donde T > 0.

Obs. Seja T : V −→ V , dim V = n, um operador normal. Se E =(u1, ..., un) é base ortonormal de V e A = [T ]EE então AA∗ = A∗A. SejaF = (v1, ..., vn) base ortonormal de V formada por autovetores de T. Então:

[T ]FF =

λ1 0. . .

0 λn

= D.

Temos:[T ]FF = [I]EF · [T ]EE · [I]FE ,

donde P−1AP = D, onde P = [I]FE é a matriz de passagem da base ortonormalE para a base ortonormal F , ou seja, P é unitária. Resulta que toda matriznormal pode ser unitariamente diagonalizada. Se A é matriz simétrica entãoP é ortogonal.

Exemplo 8.2.1 Seja A =

1 −2 −2−2 1 −2−2 −2 1

. Então: det(A−λI) =

1− λ −2 −2−2 1− λ −2−2 −2 1− λ

=

= (3− λ)2(−3− λ).

(a) λ = −3:4x1 − 2x2 − 2x3 = 0−2x1 − 4x2 − 2x3 = 0−2x1 − 2x2 − 4x3 = 0

,

Page 124: Algebra Linear

CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 121

donde X̃1 =

111

é autovetor, donde X1 =

1/√

3

1/√

3

1/√

3

é autovetor unitário.

(b) λ = 3: −2x1 − 2x2 − 2x3 = 0, donde x1 = −x2 − x3 e X̃2 =

−110

e X̃3 =

−101

são autovetores. Como X̃2 e X̃3 não são ortogonais, usamos

Gram-Schmidt para ortogonalizá-los. Obtemos: X2 =

−1/√

2

1/√

20

e X3 =

−1/√

6

−1/√

6

2/√

6

.

Os vetores X1, X2, X3 formam uma base ortonormal de R3 de modo que

H =

1/√

3 −1/√

2 −1/√

6

1/√

3 1/√

2 −1/√

6

1/√

3 0 2/√

6

é matriz ortogonal (H−1 = H t) tal que

H−1AH = D =

−3 03

0 3

.Definição 8.7 Seja A = (aij) ∈ Mn(K). DIzemos que A é positiva (resp.não-negativa) se o operador TA : Kn −→ Kn TA(x) = Ax, é positivo (resp.não-negativo). Assim, A > 0 se, e só se, A = A

t (A é hermitiana) e

〈TA(x), x〉 = 〈Ax, x〉 =n∑

i,j=1

aijxixj > 0 para todo x = (x1, ..., xn) 6= 0.

Da proposição 8.7 resulta que uma matriz hermitiana é positiva se, e só se,seus autovalores são todos positivos.

Definição 8.8 Uma matriz B = (bij) – n× n – chama-se raiz quadrada deA = (aij) – n× n – se A = B2.

Proposição 8.8 Toda matriz positiva (resp. não-negativa) A = (aij) – n×n– tem raiz quadrada positiva (resp. não negativa).Dem. Sejam λ1, ..., λn os autovalores de A, todos positivos. Pelo teorema es-

pectral existe matriz unitária P – n×n – tal que P−1AP = D =

λ1 0. . .

0 λn

.

Page 125: Algebra Linear

CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 122

Seja B =

√λ1 0

. . .0

√λn

; então B2 = D.

Seja C = PBP−1, donde C2 = PB2P−1 = PDP−1 = A, ou seja, amatriz C é raiz quadrada de A > 0, e C > 0 pois é auto-adjunta e seusautovalores são positivos.

Obs. Os autovalores de um operador normal, associados a autovaloresdistintos, são ortogonais. De fato, sejam: Tv = αv, Tu = βu, α 6= β, u, v ∈V .Temos: 〈Tv, u〉 − 〈v, T ∗u〉 = 0, donde 〈αv, u〉 − 〈v, βu〉 = 0, donde (α −β)〈v, u〉 = 0, donde 〈v, u〉 = 0 pois α 6= β.

8.3 Matrizes Simétricas Positivas. Decomposi-ção de Cholesky

Definição 8.9 Seja A = (aij) – n × n – e s ≤ n um natural. A submatrizprincipal de ordem s de A é a submatriz As obtida de A pela supressão dasúltimas (n− s) linhas e colunas.

Exemplo 8.3.1 A =

a11 a12 a13

a21 a22 a23

a31 a32 a33

. Então: A1 = [a11]; A2 =

[a11 a12

a21 a22

]e A3 = A.

Proposição 8.9 Seja A uma matriz simétrica de ordem n. São equivalentes:(a) A é positiva (A > 0), isto é, 〈Ax, x〉 = xtAx > 0 para todo x 6= 0,

x =

x1...xn

∈ Rn.

(b) As submatrizes principais A1, ..., An de A são todas positivas.(c) A pode ser reduzida à forma triangular superior usando-se apenas

operações do tipo Tij(λ) e com pivôs positivos.(d) A tem uma fatoração (de Cholesky) A = LLt onde L é triangular

inferior com elementos diagonais positivos.

Dem.(a) ⇒ (b): Seja 1 ≤ s ≤ n; vamos provar que As > 0. Seja Xs =

(x1, ..., xs)t 6= 0 em Rs e X = (x1, ..., xs, 0, ..., 0)t ∈ Rn.

Page 126: Algebra Linear

CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 123

Então: X tsAsXs = X tAX > 0, ou seja, As > 0 (donde det As > 0 já que

det As é o produto dos autovalores de As, todos positivos).(b)⇒ (c): Para simplificar, vamos tomar uma matriz 4× 4:

A =

a11 a12 a13 a14

a21 a22 a23 a24

a31 a32 a33 a34

a41 a42 a43 a44

.Por hipótese, A1 > 0, A2 > 0, A3 > 0, A4 = A > 0. Em particular,det A1 = a11 > 0 e podemos usá-lo como pivô, de modo que

A −→ A(1) =

a11 a12 a13 a14

0(1)a22 × ×

0 × × ×0 × × ×

,

onde det

(a11 a12

0(1)a22

)= det A2 > 0, donde

(1)a22 =

det A2

a11

> 0, e podemos usar

(1)a22 como pivô, obtendo

A −→ A(1) −→ A(2) =

a11 a12 a13 a14

0(1)a22 × ×

0 0(2)a33 ×

0 0 × ×

.

Como det A3 = a11 ·(1)a22 ·

(2)a33 > 0, resulta

(2)a33 > e podemos usá-lo como

pivô, obtendo

A −→ A(1) −→ A(2) −→ A(3) =

a11 a12 a13 a14

0(1)a22 × ×

0 0(2)a33 ×

0 0 0(3)a44

= U,

com det A4 = det A3 ·(3)a44 > 0, donde

(3)a44 > 0 e U triangular superior com

elementos diagonais positivos.(c) ⇒ (d): Se A pode ser reduzida à forma triangular superior U =

(uij), ukk > 0, usando-se apenas operações elementares do tipo Tij(λ), então

Page 127: Algebra Linear

CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 124

A = LU , onde L é triangular inferior com diagonal formada apenas pornúmeros 1:

L =

1 0... . . .e21 1

... ... .... . . ...

en1 en2 ... 1

= (eij),

onde ekk = 1 e, para i > j, eij = oposto do multiplicador λ usado em Tij(λ)(veja a observação no fim do capítulo 5). Então:

A = LU =

1 0

. . .e21 1

... ... .... . .

en1 en2 ... 1

u11 0

. . .u22

. . .0 unn

1u12

u11

...u1n

u11. . .

1 ...u2n

u22. . .

0 1

=

= LDU1.

Essa decomposição é única pois se fosse A = L1D1U1 = L2D2U2 com L1, L2

triangulares inferiores, D1, D2 diagonais, U1, U2 triangulares superiores, L1,L2, U1, U2 com diagonais formadas apenas por números 1, viria D−1

2 L−12 L1D1 =

U2U−11 onde o primeiro membro é triangular inferior e o segundo membro

é triangular superior, ambos com diagonal formada apenas por números 1,donde U2U

−11 = In, o que implica U1 = U2 e D−1

2 L−12 L1D1 = In, ou seja,

L−12 L1 = D2D

−11 , a diagonal do primeiro membro tendo todos os elementos

iguais a 1, donde D2D−11 = In, que implica D1 = D2 e L1 = L2.

Logo, A = LDU1, donde At = U t1DL

t = A = LDU1, donde U1 = Lt eA = LDLt = LD1/2D1/2Lt = L1L

t1, que é a decomposição de Cholesky.

(d) ⇒ (a): Temos A = LLt = At. Seja x 6= 0, donde y = Ltx 6= 0 extAx = xtLLtx = yty = ‖y‖2 > 0, ou seja, A > 0.

8.4 Teorema dos Valores SingularesLema 8.4.1 Seja T : V −→ W uma aplicação linear entre espaços vetoriaisde dimensão finita sobre K, munidos de produto interno. Então N (T ∗T ) =N (T ).

Dem. É claro que N (T T ) ⊂ N (T ). Seja v ∈ N (T ∗T ), isto é, T ∗Tv = 0,donde Tv ∈ N (T ∗) = (Im T )⊥, donde Tv ∈ Im T ∩(Im T )⊥, donde Tv = 0,ou seja, v ∈ N (T ), resultando a tese.

Page 128: Algebra Linear

CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 125

Proposição 8.10 Sejam V, W espaços vetoriais de dimensão finita sobreK, munidos de produto interno, e T : V −→ W linear. Os operadoresT ∗T : V −→ V e T ∗T : W −→ W são não-negativos e têm o mesmo postode T; eles são positivos se, e só se, T é invertível.

Dem. Como (T ∗T )∗ = T ∗T , resulta que T ∗T é auto-adjunto; analo-gamente para TT ∗. Se v ∈ V , tem-se 〈T ∗Tv, v〉 = ‖Tv‖2 ≥ 0, dondeT ∗T ≥ 0; analogamente para TT ∗; além disso, 〈T ∗Tv, v〉 > 0 se v 6= 0se, e só se, ‖Tv‖ > 0, isto é, se, e só se, T é invertível. Pelo Lema anterior,N (T ∗T ) = N (T ), donde resulta posto(T ∗T ) = dim V − dim N (T ∗T ) == dim V − dim N (T ) = posto(T ) = posto(T ∗) = posto(TT ∗).

Corolário 8.10.1 T : V −→ W linear é injetora se, e só se, T ∗T é invertí-vel; T é sobrejetora se, e só se, TT ∗ é invertível.

Dem. T é injetora ⇔ posto(T ) = dim V ⇔ posto(T ∗T ) = dim V ⇔T ∗T é invertível. Analogamente para TT ∗.

Obs. Seja A = (aij) – m × n. Se posto(A) = n então A∗A é invertível,donde positiva, e AA∗ ≥ 0. Se posto(A) = m então AA∗ > 0 e A∗A ≥ 0.

Exemplo 8.4.1 A =

(1 0 2−1 1 3

)tem posto igual a 2. Então,

AA∗ =

(5 55 11

)é positiva e A∗A =

2 −1 −1−1 1 3−1 3 13

é não-negativa.

Proposição 8.11 (Teorema dos Valores Singulares)Sejam U e V espaços vetoriais de dimensão finita sobre K, munidos de

produto interno, e T : U −→ V linear de posto igual a r. Existem basesortonormais E = (u1, ..., un) de U, F = (v1, ..., vm) de V tais que

Tui = σivi , 1 ≤ i ≤ r ; T ∗vi = σiui , 1 ≤ i ≤ rTuj = 0 , r + 1 ≤ j ≤ n ; T ∗vk = 0 , r + 1 ≤ k ≤ m

,

onde os números σ1, ..., σr são positivos: são os valores singulares de T.

Dem. T ∗T : U −→ U é não-negativa e tem posto r. Pelo teorema espectral

existe base ortonormal E = (u1, ..., un) de V tal que [T ∗T ]EE =

λ1 0. . .

λr0

. . .0 0

,

onde λ1 = σ21, ..., λr = σ2

r são positivos. Então,

Page 129: Algebra Linear

CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 126

(1 ≤ i, j ≤ r) 〈Tui, Tuj〉 = 〈T ∗Tui, uj〉 = σ2i · δij, e os vetores Tui, Tuj

são 2 a 2 ortogonais e não-nulos, já que ‖Tui‖ = σi (1 ≤ i ≤ r). Além disso,Tuk = 0, r + 1 ≤ k ≤ n, pois N (T ) = N (T ∗T ).

Para 1 ≤ i ≤ r, seja vi =1

σiTui, donde ‖vi‖ = 1 e

Tui = σivi , 1 ≤ i ≤ rTuj = 0 , r + 1 ≤ j ≤ n

.

Os vetores v1, ..., vr formam uma base ortonormal de Im T , que esten-demos a uma base ortonormal F = (v1, ..., vm) de V tomando (vr+1, ..., vm)base ortonormal de N (T ∗) = (Im T )⊥. Portanto, T ∗vk = 0, r + 1 ≤ k ≤ m

e T ∗vi =1

σiT ∗Tui = σiui, 1 ≤ i ≤ r. F é base ortonormal de autovetores de

TT ∗ já que TT ∗vi = T (σiui) = σ2i vi = λivi.

Obs. A aplicação linear T+ : V −→ U definida por

T+(vi) =1

σiui, 1 ≤ i ≤ r ; T+(vk) = 0 , r + 1 ≤ k ≤ m,

é tal que

TT+(vi) = T

(1

σiui

)= vi, 1 ≤ i ≤ r

TT+(vk) = 0, r + 1 ≤ k ≤ mT+T (ui) = T+(σivi) = ui, 1 ≤ i ≤ rT+T (uj) = 0, r + 1 ≤ j ≤ n

Definição 8.10 T+ : V −→ U é a pseudo-inversa de T : U −→ V .Obs. Nas condições do Teorema dos Valores Singulares, seja A = [T ]E1F1

– m × n – onde E1 e F1 são bases ortonormais de U e V, respectivamente.Temos

Page 130: Algebra Linear

CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 127

[I]F1F [T ]E1F1

[I]EE1 = QAP , ou seja, existem matrizes unitárias Q = matrizde passagem de F para F1, P = matriz de passagem de E1 para E, tais que

onde σ1, ..., σr são os valores singulares da matriz A de posto r.Obs. Sejam V um espaço vetorial de dimensão finita sobre (K) munido de

produto interno, e T : V −→ V linear invertível. Pelor Teorema dos ValoresSingulares existem bases ortonormais E = (u1, ..., un) e F = (v1, ..., vn) taisque T ∗Tui = σ2

1ui e Tui = σivi, 1 ≤ i ≤ n.Seja H tal que H2 = T ∗T . Então H > 0. Defina U = TH−1 ∴ U∗ =

H−1T ∗ ∴ U∗U = H−1T ∗TH−1 = H−1H2H−1 = I, isto é, U é unitáriae T = UH, ou seja, toda aplicação linear invertível é o produto de umaaplicação unitária por uma aplicação positiva.

8.5 Exercícios do Capítulo 81. Sejam V um espaço vetorial de dimensão finita, munido de um produto

interno , e T : V −→ V linear. Se a, b ∈ K são tais que |a| = |b|, proveque aT + bT ∗ é normal.

2. Seja R2 com o produto interno usual. Se T : R2 −→ R2 é um opera-dor unitário (ortogonal) mostre que a matriz de T na base canônica é[cos θ −sen θsen θ cos θ

]ou[cos θ sen θsen θ −cos θ

]para algum real θ, 0 ≤ θ ≤ 2π.

3. Seja V = C2 com o produto interno usual. Seja T : V −→ V o operador

linear cuja matriz na base canônica é A =

[1 ii 1

]. Mostre que T é

Page 131: Algebra Linear

CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 128

normal e ache uma base ortonormal de V formada por autovetores deT.

4. Ache a decomposição de Cholesky LLt da matriz A =

[4 22 10

].

5. Seja A – n×n – (simétrica e) positiva, A = QDQt onde Q é ortogonale D é diagonal. Ache matriz invertível B tal que A = BtB.

6. Seja A – n× n – (simétrica e) negativa (A < 0).(a) Qual o sinal de det A?(b) Mostre que as submatrizes principais de A são negativas.(c) Mostre que os determinantes das submatrizes principais de A alter-nam em sinal.

Page 132: Algebra Linear

Capítulo 9

Formas Bilineares e Quadráticas

9.1 GeneralidadesDefinição 9.1 Seja K um corpo de característica 6= 2; por exemplo K = Rou K = C. Sejam U, V, W espaços vetoriais sobre K. Uma aplicação T :U × V −→ W é bilinear se T é linear em cada variável separadamente, istoé, se

T (u1 + u2, v) = T (u1, v) + T (u2, v); T (λu, v) = λT (u, v)T (u, v1 + v2) = T (u, v1) + T (u, v2); T (u, λv) = λT (u, v)

quaisquer que sejam u, u1, u2 ∈ U , v, v1, v2 ∈ V e λ ∈ K.Com as leis usuais de adição e produto por escalar, o conjunto das apli-

cações bilineares T : U × V −→ W é um espaço vetorial sobre K, ano-tado L(U, V ;W ). Quando U = V e W = K, representamos L(V, V ;K) porL2(V ;K) e dizemos que f ∈ L2(V ;K) é uma forma bilinear.

Exemplo 9.1.1 (x, y) ∈ Rn×Rn 7−→ 〈x, y〉 =n∑i=1

xiyi é uma forma bilinear

em Rn.

Exemplo 9.1.2 Se f, g ∈ V ∗ definimos seu produto tensorial f ⊗ g e seuproduto exterior f ∧ g por:

(f ⊗ g)(u, v) = f(u) · g(v) ; (f ∧ g)(u, v) = f(u)g(v)− f(v)g(u).

É fácil ver que f ⊗ g e f ∧ g são formas bilineares em V.

Exemplo 9.1.3 Se V = C0([a, b],R) = {f : [a, b] −→ R, contínua } e

f, g ∈ V , então (f, g) 7−→∫ b

a

f(t)g(t)dt é uma forma bilinear em V.

129

Page 133: Algebra Linear

CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 130

Exemplo 9.1.4

φ : L(U, V )× L(V,W ) −→ L(U,W )

(S, T ) −→ φ(S, T ) = T ◦ Sé uma aplicação bilinear.

Proposição 9.1 Seja

φ : L(U, V ;W ) −→ L(U,L(V,W ))T −→ φT : U −→ L(V,W )

u 7−→ φT (u) : V −→ Wv 7−→ φT (u)(v) = T (u, v)

onde U, V, W são espaços vetoriais sobre K.Então, φ é um isomorfismo canônico.Dem. Seja

ψ : L(U ;L(V,W )) −→ L(U, V ;W )S 7−→ ψS : U × V −→ W

(u, v) 7−→ ψS(u, v) = S(u)(v)

É fácil verificar que φ e ψ estão bem definidas, são lineares, φ ◦ ψ =id, ψ ◦ φ = id, ou seja, φ e ψ são isomorfismos e ψ = φ−1.

Corolário 9.1.1φ : L2(V ;K) −→ L(V, V ∗)

f −→ φf : V −→ V ∗

u 7−→ φf(u) : V −→ Kv 7−→ f(u, v)

é um isomorfismo canônico que nos permite identificar L2(V ;K) com L(V, V ∗).

Definição 9.2 f ∈ L2(V ;K) é simétrica se f(u, v) = f(v, u) quaisquer quesejam u, v ∈ V .

f ∈ L2(V ;K) é antissimétrica se f(u, v) = −f(v, u) quaisquer que sejamu, v ∈ V ; neste caso, f(v, v) = −f(v, v) donde f(v, v) = 0 para todo v ∈ V ,isto é, f é alternada.

Obs. O conjunto das formas bilineares simétricas (resp. antissimétricas)em V é um subespaço vetorial S2(V ;K) (resp. A2(V ;K)) de L2(V ;K) etemos L2(V ;K) = S2(V ;K)⊕A2(V ;K). De fato, S2(V ;K) e A2(V ;K) têm

interseção igual a {0} e se f ∈ L2(V ;K) então g(u, v) =1

2[f(u, v)+

+f(v, u)] e h(u, v) =1

2[f(u, v) − f(v, u)] são tais que g ∈ S2(V ;K), h ∈

A2(V ;K) e f = g + h.

Page 134: Algebra Linear

CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 131

9.2 Matriz de uma forma bilinearSejam:

• E = (u1, ..., um) base ordenada de U

• F = (v1, ..., vn) base ordenada de V

• f : U × V −→ K forma bilinear

Se u ∈ U , v ∈ V , u =m∑i=1

xiui, v =n∑j=1

yjvj, então f(u, v) =m∑i=1

n∑j=1

xiyjf(ui, vj).

Pondo aij = f(ui, vj) vem f(u, v) =m∑i=1

n∑j=1

aijxiyj. A matriz A = (aij) –

m× n – é chamada de matriz de f em relação às bases E e F .

Se X =

x1...xm

= [u]E e Y =

y1...yn

= [v]F , então

f(u, v) = (x1, ..., xm)

a11 ... a1n... . . . ...am1 ... amn

y1

...yn

= X tAY.

Fixadas as bases E e F , a aplicação f ∈ L(U, V ;K) 7−→ A ∈Mm×n(K) éum isomorfismo, como se verifica facilmente, de modo que dim L(U, V ;K) =dim U · dim V = mn, em particular, dim L2(V ;K) = n2.

Obs. Se (v1, ..., vn) é base ordenada de V e A = (aij) com aij = f(vi, vj),vemos que f ∈ L2(V ;K) é simétrica se, e só se, aij = aji para todo par (i, j).

9.3 Mudanças de BasesSejam: E = (u1, ..., um); E ′ = (u′1, ..., u

′m) bases ordenadas de U, F =

(v1, ..., vn), F ′ = (v′1, ..., v′n) bases ordenadas de V. Então:

u′i =m∑r=1

priur

v′j =n∑s=1

qsjvs

,

onde P e Q são as matrizes de passagem de E para E ′ e de F para F ′,respectivamente.

Page 135: Algebra Linear

CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 132

Temos:

f(u′i, v′j) = a′ij =

m∑r=1

n∑s=1

priqsjars =n∑s=1

(m∑r=1

ptir · arj

)qsj,

donde A′ = P t · A · Q, que é a relação entre a matriz A′ de f ∈ L(U, V ;K)nas bases E ′ e F ′ e a matriz A de f nas bases E e F . No caso em que U = V ,

E = F , E ′ = F ′ e v′j =n∑i=1

pijvi, temos P = Q e A′ = P t · A · P .

9.4 Formas QuadráticasDefinição 9.3 Seja f ∈ L2(V ;K). A função q : V −→ K definida porq(v) = f(v, v) chama-se uma forma quadrática em V. O conjunto Q(V ) dasformas quadrátivas em V é um espaço vetorial com as leis usuais de adiçãoe produto por escalar. A aplicação f ∈ L2(V ;K) 7−→ q ∈ Q(V ) é linear

sobrejetora, mas não é injetora. Se g(u, v) =1

2[f(u, v) + f(v, u)], então g é

simétrica e g(v, v) = f(v, v) = q(v) de modo que podemos sempre supor quea forma bilinear que define q é simétrica e a aplicação g ∈ L2(V ;K) 7−→ q ∈Q(V ) é bijetora. Para obter g a partir de q, observemos que

q(u+ v) = g(u+ v, u+ v) = g(u, u) + g(v, v) + 2g(u, v),

donde g(u, v) =1

2[q(u+v)−q(u)−q(v)]; g é a forma polar de q. Se A = (aij)

– n×n – é a matriz de g na base E de V e se X = [v]E , então q(v) = X t ·A·X,e dizemos também que A é matriz de q na base E.

Exemplo 9.4.1 q : Rn −→ R, q(x) = q(x1, ..., xn) =n∑i=1

(xi)2 é uma forma

quadrática em Rn.

Exemplo 9.4.2 q : C0([0, 1],R) −→ R, q(f) =

∫ 1

0

[f(t)]2dt é uma forma

quadrática em C0([0, 1],R).

9.5 Formas Bilineares Simétricas ReaisProposição 9.2 Seja V um espaço vetorial real de dimensão finita, munidode um produto interno. Para cada forma bilinear f : V × V −→ R existe

Page 136: Algebra Linear

CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 133

uma e uma única aplicação linear F : V −→ V tal que f(u, v) = 〈u, F (v)〉para u, v ∈ V quaisquer.

Dem. Seja v ∈ V arbitrário. A função u ∈ V 7−→ f(u, v) é uma formalinear em V, isto é, um elemento de V ∗. Portanto, existe um e um únicoζ = F (v) ∈ V tal que f(u, v) = 〈u, ζ〉 = 〈u, F (v)〉, e obtemos F : V −→ V .

Se u, v1, v2 ∈ V e λ ∈ R, temos:

〈u, F (v1+λv2)〉 = f(u, v1+λv2) = f(u, v1)+λf(u, v2) = 〈u, F (v1)〉+λ〈u, F (v2)〉 = 〈u, F (v1)+λF (v2)〉,

resultando F (v1 + λv2) = F (v1) + λF (v2), donde F é linear.

Proposição 9.3 Seja q : V −→ R uma forma quadrática definida num es-paço vetorial real V de dimensão n munido de um produto interno. Existebase ortonormal F = (u1, ..., un) de V relativa à qual q(v) = λ1x

21+ ...+λnx

2n,

onde v = x1u1 + ...+ xnun, e λ1, ..., λn são os autovalores de q.Dem. Seja f : V × V −→ R bilinear simétrica tal que q(v) = f(v, v)

para v ∈ V qualquer, e seja F : V −→ V linear tal que f(u, v) = 〈u, F (v)〉para u, v ∈ V quaisquer. Se E = (v1, ..., vn) é base ortonormal de V entãof(vi, vj) = 〈vi, F (vj)〉 mostra que a matriz de f na base E coincide com amatriz de F na mesma base. Resulta que φ : f ∈ L2(V ; R) 7−→ F ∈ L(V )é um isomorfismo e que f é simétrica se, e só se, F é auto-adjunta. Nestecaso, existe base ortonormal de V formada por autovetores de F (ou de f,ou de q), isto é, existe base ortonormal F = (u1, ..., un) tal que f(ui, uj) =

〈ui, F (uj)〉 = λjδij. Se v =n∑i=1

xiui então

q(v) = f(v, v) =n∑

i,j=1

f(ui, uj)xixj =∑i,j

λjδijxixj =n∑i=1

λi(xi)2 = λ1x

21+...+λnx

2n,

combinação de quadrados.

Corolário 9.3.1 Nas condições da proposição 9.3, existe base ortonormalG = (w1, ..., wn) de V relativa à qual se tem

q(v) =s∑i=1

(xi)2 −

s+t∑j=s+1

(xj)2

para todo v =n∑i=1

xiwi ∈ V .

Page 137: Algebra Linear

CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 134

Dem. Reordenamos a base F = (u1, ..., un) da proposição 9.3 de modoque

f(ui, ui) = q(ui) = λi > 0 para 1 ≤ i ≤ sf(uj, uj) = q(uj) = λj < 0 para s+ 1 ≤ j ≤ s+ tf(uk, uk) = q(uk) = 0 para s+ t+ 1 ≤ k ≤ n.

Pondo:wi =

ui√λi

para 1 ≤ i ≤ s

wj =uj√−λj

para s+ 1 ≤ j ≤ s+ t

wk = uk para s+ t+ 1 ≤ k ≤ n,

obtemosf(wi, wi) = 1 para 1 ≤ i ≤ sf(wj, wj) = −1 para s+ 1 ≤ j ≤ s+ tf(wk, wk) = 0 para s+ t+ 1 ≤ k ≤ n.

Portanto, se v =n∑i=1

xiwi, temos q(v) =s∑i=1

(xi)2 −

s+t∑j=s+1

(xj)2.

Corolário 9.3.2 Se E = (v1, ..., vn) e E ′ = (v′1, ..., v′n) são bases ortonormais

de V nas quais q(v) =s∑i=1

(xi)2 −

s+t∑j=s+1

(xj)2 =

s′∑i=1

(xi)2 −

s′+t′∑j=s′+1

(xj)2 para

v =∑

xivi =∑

xjv′j qualquer, então s = s′ e t = t′.

Dem. Sejam:

U = subespaço de V gerado por v1, ..., vsW ′ = subespaço de V gerado por v′s′+1, ..., v

′n.

Então: dim U = s e dim W ′ = n− s′.Se v ∈ U, v 6= 0, temos q(v) > 0. Se v ∈ W ′, então q(v) ≤ 0. Resulta

que U ∩W ′ = {0} e, portanto,

dim U + dim W ′ = dim(U +W ′) ≤ dim V = n,

donde: s+ n− s′ ≤ n, ou seja, s ≤ s′.Por simetria, obtemos: s′ ≤ s. Logo, s = s′.Como s + t = s′ + t′ = r = posto de F (=posto de f=posto de q), resulta

t = t′.Obs. O par (s, t) é univocamente determinado por q; t é a maior dimen-

são de um subespaço de V restrita ao qual q é negativa: t é a dimensão do

Page 138: Algebra Linear

CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 135

subespaço de V gerado por vs+1, ..., vs+t. Por definição, t é o índice da formaquadrática q. Quando q(v) ≥ 0 para v ∈ V qualquer, dizemos que o índicede q é zero.

Exemplo: q : R4 −→ R, q(x, y, z, t) = −x2 +y2 +z2 + t2 tem posto r = 4e índice t = 1.

Vamos apresentar, por meio de exemplos, o método de Lagrange para adiagonalização de uma forma quadrática.

Exemplo 9.5.1 q(x, y, z) = x2 + z2 − 4xy + 4xz.Como existe o termo quadrado “puro” x2 vamos completar o quadrado:

q(x, y, z) = x2−4x(y−z)+z2 = [x−2(y−z)]2−4(y−z)2+z2 = (x−2y+2z)2−4y2−3z2+8yz

e a existência de y2 nos permite completar o quadrado:

q(x, y, z) = (x− 2y + 2z)2 − 4(y − z)2 + z2

Pondo:u = x− 2y + 2zv = y − z,

obtemosq(u, v, z) = u2 − 4v2 + z2,

forma de posto r = 3 e índice t = 1.

Exemplo 9.5.2 q(x, y, z) = 4xy − 2xz + yxComo não existe nenhum quadrado puro, fazemos

x = u+ vy = u− v,

donde xy = u2 − v2 e

q(u, v, z) = 4u2 − 4v2 − 2z(u+ v) + z(u− v) = 4u2 − 4v2 − uz − 3vz =

= 4(u2 − z

4u)−4

(v2 +

3z

4v

)= 4

[(u− z

8

)2

− z2

164

]−4

(v +

3z

8

)2

+9z2

16=

4(u− z

8

)2

− 4

(v +

3z

4v

)2

+z2

2.

Fazendo: α = u− z

8; β = v +

3z

8, vem:

q(α, β, z) = 4α2 − 4β2 +z2

2,

forma de posto r = 3 e índice t = 1.

Page 139: Algebra Linear

Capítulo 10

Miscelânea

10.1 OrientaçãoSeja V um espaço vetorial real, de dimensão finita n ≥ 1, e seja B o conjuntodas bases ordenadas de V.

Definição 10.1 Duas bases ordenadas E = (u1, ..., un) e F = (v1, ..., vn) deV são equivalentes, anotado E ∼ F , se o determinante da matriz de passagemde E para F é positivo.

Se vj =n∑i=1

pijui, então a matriz de passagem de E para F é a matriz

invertível P = (pij) e E ∼ F se, e só se, det P > 0. Observemos queP = [I]FE , onde I : V −→ V é a identidade.

Proposição 10.1 A relação E ∼ F é uma relação de equivalência sobre B.Dem. (a) E ∼ E, pois det [I]EE = det In = 1 > 0.(b) E ∼ F ⇒ F ∼ E: com efeito, se P = [I]FE , então P−1 = [I]EF .

Portanto, det P > 0⇔ det P−1 > 0.(c) E ∼ F , F ∼ G ⇒ E ∼ G: sejam P = [I]FE , Q = [I]GF . A matriz de

passagem de E para G é R = [I] = PQ. Logo, det R = det P · det Q > 0.

Proposição 10.2 A relação E ∼ F determina duas classes de equivalênciano conjunto B de todas as bases ordenadas de V.

Dem. Fixemos uma base E = (u1, ..., un) em V e seja E = (−u1, u2, ..., un).A matriz de passagem de E para E tem determinante igual a∣∣∣∣∣∣∣∣∣∣

−1 0 0 ... 00 1 0 ... 00 0 1 ... 0... ... ... ... ...0 0 0 ... 1

∣∣∣∣∣∣∣∣∣∣= −1,

136

Page 140: Algebra Linear

CAPÍTULO 10. MISCELÂNEA 137

ou seja, E e E estão em classes distintas, B1 e B2. Se F é base ordenadaarbitrária de V, temos

R = [I]FE = [I]EE · [I]FE = PQ,

onde P, Q e R são as matrizes de passagem de E para E, de E para F e deE para F , respectivamente. Então:

det R = det P ·det Q = −det Q, donde resulta que ou F ∈ B1 ou F ∈ B2,ou seja, só existem duas classes de equivalência.

Definição 10.2 Qualquer uma das classes B1 ou B2 diz-se uma orientaçãode V. V possui, portanto, duas orientações.

Definição 10.3 Um espaço vetorial orientado é um espaço vetorial associ-ado a uma de suas orientações. Mais precisamente, é um par (V,O) onde Oé uma orientação do espaço vetorial real V.

Definição 10.4 Se (V,O) é um espaço vetorial orientado, as bases que per-tencem à orientação O chamam-se positivas. As outras são chamadas negativas.

Exemplo 10.1.1 O espaço Rn possui uma orientação canônica, que é aqueladeterminada pela base canônica (e1, ..., en).

Obs. O conceito de orientação depende essencialmente da relação deordem dos números reais, não podendo ser estendido a espaços vetoriais sobreum corpo qualquer.

10.2 Volume de ParalelepípedoSejam V um espaço vetorial real de dimensão n, munido de um produtointerno, e v1, ..., vn ∈ V .

Definição 10.5 O paralelepípedo de arestas v1, ..., vn é o conjunto

P (v1, ..., vn) = {x = t1v1 + ...+ tnvn; 0 ≤ ti ≤ 1}.

Seja E = (e1, ..., en) uma base ortonormal de V. Se vj =n∑i=1

aijei, A =

(aij) – n×n – define-se o volume de P (v1, ..., vn) por v(P (v1..., vn)

)= |det A|.

Se E ′ = (e′1, ..., e′n) é outra base ortonormal de V e e′i =

n∑k=1

pkiek, P =

(pij) – n×n – matriz ortogonal, de transição da base E para a base E, então

Page 141: Algebra Linear

CAPÍTULO 10. MISCELÂNEA 138

|det P | = 1 e vj =n∑i=1

a′ije′i =

n∑i=1

a′ij

n∑k=1

pkiek =n∑k=1

n∑i=1

pkia′ijek =

n∑k=1

akjek,

donde A = PA′ e |det A| = |det A′|, o que mostra que v(P (v1, ..., vn)

)não

depende da base ortonormal usada na sua definição.

Proposição 10.3 Seja T : V −→ V linear. Então:

v(P (Tv1, ..., T vn)

)= |det T | · v

(P (v1, ..., vn)

).

Dem. Com as notações usadas acima, temos: vj =n∑i=1

aijei, donde

Tvj =n∑i=1

aijT (ei) =n∑

i,k=1

aijbkiek =n∑k=1

(n∑i=1

bkiaij

)ek,

onde B = [T ]EE ; portanto,

v(P (Tv1, ..., T vn

)= |det BA| = |det T ||det A| = |det T |v

(P (v1, ..., vn)

).

10.3 Matriz de GramSejam v1, ..., vk ∈ V , onde V é um espaço vetorial real de dimensão n, munidode um produto interno.

Se gij = 〈vi, vj〉, a matriz de Gram de v1, ..., vk é G = (gij) – k × k. SejaW um subespaço de dimensão k contendo v1, ..., vk (se v1, ..., vk são LI, W éúnico). Seja E = (e1, ..., en) base ortonormal de V tal que (e1, ..., ek) seja base

ortonormal de W. Então: vj =k∑i=1

aijei, v(P (v1, ..., vk)

)= |det A| e v1, ..., vk

são LI ⇔ det A 6= 0⇔ v(P (v1, ..., vk)

)> 0.

Proposição 10.4 v(P (v1, ..., vk)

)=√det G.

Dem. Com as notações acima, temos:

gij = 〈vi, vj〉 = 〈k∑r=1

arier,

k∑s=1

asjes〉 =k∑r=1

atirarj,

donde G = AtA e det G = (det A)2, resultando v(P (v1, ..., vk)

)= |det A| =√

det G. Além disso, det G ≥ 0, e det G = 0 ⇔ det A = 0 ⇔ v1, ..., vk sãoLD.

Page 142: Algebra Linear

CAPÍTULO 10. MISCELÂNEA 139

Obs. Se v1, ..., vk são 2 a 2 ortogonais, então

det G =

|v1|2 0. . .

0 |vk|2

= |v1|2...|vk|2 = (det A)2,

donde |det A| = v(P (v1, ..., vk)

)= |v1|...|vk|. Se {v1, ..., vk} é conjunto orto-

normal, então P (v1, ..., vk) é o cubo unitário Ik e v(Ik) = 1.

10.4 Produto VetorialSejam V um espaço vetorial real, de dimensão (n+1), munido de um produtointerno 〈, 〉, orientado, e v1, ..., vn ∈ V . A função

f : V −→ Rx 7−→ f(x) = detE(v1, ..., vn, x),

onde E = (e1, ..., en+1) é base positiva de V, ortonormal, é linear, donde existeum e um único u ∈ V , u = v1 × ... × vn, tal que f(x) = 〈u, x〉 para todox ∈ V . Este vetor u = v1 × ...× vn chama-se o produto vetorial de v1, ..., vn.

Obs. (a) u = v1 × ...× vn é forma n-linear dos vetores v1, ..., vn.(b) Seja A = [v1, ..., vn] a matriz (n+1)×n cujas colunas são os vetores vj

escritos na base E . Seja A(i) – n× n – a submatriz obtida de A pela omissãoda linha i. Temos:

〈u, ej〉 = det [v1, ..., vn, ej] = (−1)n+1+jdet A(j).

Então:

u =n+1∑i=1

(−1)n+1+idet A(i) · ei,

donde |u|2 =n+1∑i=1

(det A(i))2 ≥ 0 e |u| = 0 ⇔ det A(i) = 0 para todo i,

1 ≤ i ≤ n+ 1⇔ posto A < n⇔ v1, ..., vn são LD.(c) u⊥vj (1 ≤ j ≤ n) pois 〈u, vj〉 = det(v1, ..., vn, vj) = 0.(d) |u|2 = detE [v1, ..., vn] = v

(P (u, v1, ..., vn)

)= |u|v

(P (v1, ..., vn)

), donde

|u| = v(P (v1, ..., vn)

).

(e) v1, ..., vn são LI⇔ v(P (v1, ..., vn)

)= |u| > 0. Neste caso, det(u, v1, ..., vn) =

|u|2 > 0 e (v1, ..., vn, v1 × ...× vn) tem a mesma orientação que (e1, ..., en+1).É fácil ver que o produto vetorial u = v1 × ... × vn é o único vetor de V

satisfazendo (c), (d) e (e).

Page 143: Algebra Linear

CAPÍTULO 10. MISCELÂNEA 140

Pode-se representar u = v1 × ...× vn pelo determinante simbólico∣∣∣∣∣∣∣∣∣v11 ... v1n e1v21 ... v2n e2... . . . ...

...vn+1,n ... vn+1,n en+1

∣∣∣∣∣∣∣∣∣ =n+1∑i=1

(−1)n+1+idet A(i)ei = u.

Page 144: Algebra Linear

Exercícios de Revisão

1. Sejam p1, ..., pn ∈ Pn(K), isto é, polinômios de grau menor que n.Se, para j = 1, ..., n, pj(2) = 0, prove que {p1, ..., pn} é um conjuntolinearmente dependente.

2. Prove que não existe T : R5 −→ R2 linear cujo núcleo seja {(x1, ..., x5) ∈R5|x1 = x2 e x3 = x4 = x5}.

3. Seja T : V −→ W linear, V de dimensão finita. Prove que existesubespaço U ⊂ V tal que N (T ) ∩ U = {0} e Im T = T (U).

4. Seja T : Rn −→ Rn, T (x1, ..., xn) = (x1 + ...+xn, ..., x1 + ...+xn). Acheos autovalores e autovetores de T.

5. Sejam V = U⊕W , P : V −→ W , P (u+w) = w, onde u ∈ U e w ∈ W .Mostre que 0 e 1 são os únicos autovalores de P e ache os autovetorescorrespondentes.

6. Dê exemplo de um operador linear invertível T : V −→ V , dim V = n,cuja matriz em alguma base só tem zeros na diagonal principal.

7. Se a1, ..., an, b1, ..., bn ∈ R, prove que(n∑j=1

ajbj

)2

(n∑j=1

j · a2j

)(n∑j=1

b2jj

).

8. Seja T : Cn −→ Cn, T (z1, ..., zn) = (0, z1, ..., zn−1). Ache T ∗.

9. Prove que todo operador auto-adjunto T : V −→ V tem uma raizcúbica, dim V = n.

10. Sejam T : V −→ V linear, dim V = n. Prove que V tem base formadapor autovetores de T se, e só se, existe produto interno em V que tornaT auto-adjunto.

141

Page 145: Algebra Linear

EXERCÍCIOS DE REVISÃO 142

11. Se T : V −→ V é normal, prove que Im T = Im T ∗.

12. Se K = C prove que todo operador normal T : V −→ V , dim V = ntem uma raiz quadrada.

13. Sejam K = C e T : V −→ V operador normal, dim V = n. Prove queT = T ∗ ⇔ todos os autovalores de T são reais.

14. Sejam T : V −→ V linear, dim V = n, T = T ∗. Prove que os valoressingulares de T são os módulos de seus autovalores.

15. Prove que todo polinômio mônico é o polinômio característico de algumoperador linear. Para isso, considere a matriz

A =

0 0 ... 0 0 −a0

1 0 ... 0 0 −a1

0 1 ... 0 0 −a2

... ... ... ... ... ...0 0 ... 1 0 −an−2

0 0 ... 0 1 −an−1

.

16. Sejam T : V −→ V , dim V = n, T > 0 e tr T = 0. Prove que T = 0.

17. Sejam (e1, ..., en) base ortonormal de V e T : V −→ V linear. Prove:tr(T ∗T ) = |Te1|2 + ...+ |Ten|2.

18. Sejam K = C, T : V −→ V linear, E = (e1, ..., en) base ortonormal deV, e λ1, ..., λn os autovalores de T. Se A = [T ]EE = (aij) – n× n – proveque

|λ1|2 + ...+ |λn|2 ≤n∑

i,j=1

|aij|2.

Page 146: Algebra Linear

Referências Bibliográficas

[1] Axler, S. – Linear Algebra Done Right – Springer, New York, 1996.

[2] Gelfand, I. – Lectures on Linear Algebra – Interscience, New York, 1961.

[3] Hoffman, K.; Kunze, R. – Linear Algebra – Prentice-Hall, New Jersey,1971.

[4] Júdice, E.D. – Introdução à Álgebra Linear – Belo Horizonte, 1960.

[5] Lang, S. – Linear Algebra – Springer, New York, 2004.

[6] Leon, S. – Álgebra Linear – LTC, Rio de Janeiro, 1999.

[7] Lima, E.L. – Álgebra Linear – IMPA, Rio de Janeiro, 1996.

[8] Queysanne, M. – Algèbre – Armand Colin, Paris, 1964.

[9] Simmons, G. – Introduction to Topology and Modern Analysis –McGraw-Hill, New York, 1963.

143