ma33 - introdução à Álgebra linear

308

Upload: hudson-martins

Post on 11-Aug-2015

816 views

Category:

Documents


48 download

TRANSCRIPT

Page 1: MA33 - Introdução à Álgebra Linear

1

1

Livro: Introdução à Álgebra LinearAutores: Abramo Hefez

Cecília de Souza Fernandez

Capítulo 1: Sistemas Lineares e Matrizes

Sumário

1 O que é Álgebra Linear? . . . . . . . . . . . . . . . 2

1.1 Corpos . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.2 Espaços Vetoriais . . . . . . . . . . . . . . . . . . . 4

1.3 Sistemas de Equações Lineares . . . . . . . . . . . 9

2 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.1 A De�nição de Matriz . . . . . . . . . . . . . . . . 14

2.2 Operações com Matrizes . . . . . . . . . . . . . . . 16

2.3 Matriz Inversa . . . . . . . . . . . . . . . . . . . . 23

Page 2: MA33 - Introdução à Álgebra Linear

2 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES

1 O que é Álgebra Linear?

Os espaços em que trabalharemos são os Rn, com n ≥ 2, isto é, o produto

cartesiano de n cópias da reta real R. Para n ≥ 4, este espaço generaliza

o espaço R2 dos vetores do plano e o espaço R3 dos vetores no espaço. A

diferença crucial entre os casos n = 2 e n = 3 e os casos em que n ≥ 4

é que, para estes últimos, não se dispõe de uma representação geométrica.

O fato não diminui a importância desses espaços, pois basta pensar que o

R4 é o espaço-tempo da Física, em que os pontos são quaternos (x, y, z, t),

com as três primeiras coordenadas representando a posição no espaço de uma

partícula ideal e a última representando o instante t em que esta partícula

ocupa tal posição. Por não existir uma representação geométrica para os

pontos de Rn com n ≥ 4, seremos obrigados a tratá-los algebricamente, sem

o recurso da visualização geométrica, tão fundamental em R2 e R3.

Portanto, trataremos os elementos de Rn como vetores, onde a soma de

dois vetores (x1, x2, . . . , xn) e (y1, y2, . . . , yn) é dada por

(x1, x2, . . . , xn) + (y1, y2, . . . , yn) = (x1 + y1, x2 + y2, . . . , xn + yn),

e a multiplicação do vetor (x1, x2, . . . , xn) pelo número real a, chamado de

escalar, é de�nida por

a(x1, x2, . . . , xn) = (ax1, ax2, . . . , axn).

Os espaços Rn são utilizados de modo essencial em quase todos os ramos

do conhecimento e, por este motivo, são estudados em Matemática sob os

mais variados pontos de vista e com as mais diversas estruturas. Por exem-

plo, no Cálculo Diferencial, são considerados como espaços normados; em

Geometria, como espaços com produto interno.

A estrutura de Rn estudada em Álgebra Linear é a induzida pela estrutura

de corpo da reta real R. Essa é a estrutura mínima apropriada para se estudar

sistemas de equações lineares com várias incógnitas. Além disso, é aquela

sobre a qual se constroem o Cálculo Diferencial e a Geometria Diferencial,

entre outros.

Page 3: MA33 - Introdução à Álgebra Linear

1. O QUE É ÁLGEBRA LINEAR? 3

Como a estrutura de corpo de R desempenhará papel fundamental, vamos

de�nir formalmente este conceito.

1.1 Corpos

Um conjunto K será chamado de corpo se for munido de uma operação

de adição (+) e uma operação de multiplicação (×), veri�cando as condições

a seguir.

A1 A adição é associativa:

(a+ b) + c = a+ (b+ c), para todos a, b, c ∈ K.

A2 A adição é comutativa:

a+ b = b+ a, para todos a, b ∈ K.

A3 A adição possui elemento neutro:

existe 0 ∈ K, tal que a+ 0 = a, para todo a ∈ K.

A4 A adição possui simétricos:

para todo a ∈ K, existe −a ∈ K tal que a+ (−a) = 0.

M1 A multiplicação é associativa:

(a× b)× c = a× (b× c), para todos a, b, c ∈ K.

M2 A multiplicação é comutativa:

a× b = b× a, para todos a, b ∈ K.

M3 A multiplicação possui elemento neutro:

existe 1 ∈ K \ {0}, tal que a× 1 = a, para todo a ∈ K.

M4 A multiplicação possui inversos:

para todo a ∈ K \ {0}, existe a−1 ∈ K tal que a× a−1 = 1.

AM A multiplicação é distributiva com relação à adição:

a× (b+ c) = a× b+ a× c, para todos a, b, c ∈ K.

Portanto, são corpos os conjuntos Q, R e C, com as suas respectivas

adições e multiplicações.

A operação de multiplicação em um corpo muitas vezes é denotada por

(·), escrevendo a · b, ou mesmo ab, no lugar de a× b, notação que adotaremos

ao longo deste livro.

Page 4: MA33 - Introdução à Álgebra Linear

4 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES

Existem exemplos de corpos que à primeira vista parecem exóticos, como

o corpo de Galois1 F2, que consiste dos dois elementos 0 e 1 com as seguintes

operações:

+ 0 1

0 0 1

1 1 0

× 0 1

0 0 0

1 0 1

Note que este é o corpo com o menor número possível de elementos,

pois todo corpo deve possuir os dois elementos distintos 0 e 1. Apesar de

parecerem apenas curiosidades, os corpos com um número �nito de elementos

têm as mais variadas aplicações em quase toda a Matemática e são essenciais

na tecnologia e na computação.

1.2 Espaços Vetoriais

Os espaços Rn, por serem constituídos por vetores que podem ser soma-

dos e multiplicados por escalares, como vimos antes, são chamados espaços

vetoriais.

Como os espaços vetoriais são os objetos principais de estudo da Álgebra

Linear, vamos de�ni-los formalmente a seguir.

Um conjunto V será dito um espaço vetorial sobre um corpo K, se possui

uma adição (+) com as mesmas propriedades da adição em um corpo; ou

seja,

A1 A adição é associativa:

(u+ v) + w = u+ (v + w), para todos u, v, w ∈ V .

A2 A adição é comutativa:

u+ v = v + u, para todos u, v ∈ V .

A3 A adição possui elemento neutro (elemento zero):

existe 0 ∈ V , tal que v + 0 = v, para todo v ∈ V .

1Em homenagem a Évariste Galois (França, 1811-1832), considerado um dos grandes

gênios da Matemática.

Page 5: MA33 - Introdução à Álgebra Linear

1. O QUE É ÁLGEBRA LINEAR? 5

A4 A adição possui simétricos:

para todo v ∈ V , existe −v ∈ V tal que v + (−v) = 0.

E além disso, existe uma operação chamada de multiplicação por escalar, que

associa a um elemento a ∈ K e a um elemento v ∈ V , um elemento av ∈ V ,

tal que

ME1 a(u+ v) = au+ av, para todos a ∈ K e u, v ∈ V .

ME2 (a1 + a2)v = a1v + a2v, para todos a1, a2 ∈ K e v ∈ V .

ME3 (a1a2)v = a1(a2v), para todos a1, a2 ∈ K e v ∈ V .

ME4 1v = v, para todo v ∈ V .

Os elementos de V serão chamados de vetores e os elementos de K de

escalares. Assim, o elemento 0 de V será chamado de vetor nulo e o elemento

−v de vetor oposto de v.

O primeiro matemático a dar uma de�nição abstrata para um espaço

vetorial foi Giuseppe Peano (Itália, 1858 - 1932) em seu livro Calcolo Geo-

metrico, de 1888. No Capítulo IX, Peano dá uma de�nição do que ele chama

de um sistema linear. Para Peano, um sistema linear consistia de quantidades

com operações de adição e multiplicação por escalar. A adição deveria satis-

fazer as leis comutativa e associativa, enquanto a multiplicação por escalar

deveria satisfazer duas leis distributivas, uma lei associativa e a lei de que

1 · v = v para toda quantidade v. Além disso, Peano incluiu como parte de

seu sistema de axiomas a existência de uma quantidade 0 (zero) satisfazendo

v + 0 = v, para todo v, assim como v + (−1)v = 0 para todo v. Peano

também de�niu a dimensão de um sistema linear como o máximo número de

quantidades linearmente independentes do sistema (veja esta noção na Seção

2 do Capítulo 3). Peano veri�cou que o conjunto das funções polinomiais em

uma variável forma um sistema linear, mas não existia um tal número má-

ximo de quantidades linearmente independentes, portanto, a dimensão deste

sistema deveria ser in�nito.

O fato a seguir decorre da de�nição de espaço vetorial. Para a ∈ K e

Page 6: MA33 - Introdução à Álgebra Linear

6 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES

v ∈ V , tem-se que

a = 0 ou v = 0 ⇐⇒ av = 0.

De fato, sejam a ∈ K e 0 ∈ V . Como 0 + 0 = 0, pela propriedade ME1,

segue-se que

a 0 = a(0 + 0) = a 0 + a 0.

Somando o simétrico −a 0 de a 0 a ambos os lados da igualdade acima e

utilizando as propriedades A4, A1 e A3, temos que

0 = a 0 + (−a 0) = (a 0 + a 0) + (−a 0) = a 0 + [a 0 + (−a 0)] = a 0 + 0 = a 0.

De modo semelhante, mostra-se (faça-o) que para 0 ∈ K e v ∈ V tem-se

0 v = 0, onde o elemento 0 da direita é o elemento zero de V .

Reciprocamente, suponhamos que av = 0 e a 6= 0, então, multiplicando

ambos os lados da igualdade acima pelo escalar a−1, temos que

0 = a−10 = a−1(av) = (a−1a)v = 1v = v.

Dois vetores u e v em um espaço vetorial V serão ditos colineares, se

existir um elemento a em K tal que v = au. Portanto, são colineares os

vetores u e au, para todo a ∈ K. Note que o vetor 0 é colinear com qualquer

vetor v, pois 0 = 0v.

É um exercício fácil mostrar que Rn é um espaço vetorial sobre o corpo

R, com as operações de adição de vetores e a multiplicação por escalares

que de�nimos anteriormente, onde o elemento zero é o vetor (0, 0, . . . , 0) e o

simétrico de (x1, x2, . . . , xn) é o vetor

−(x1, x2, . . . , xn) = (−x1,−x2, . . . ,−xn).

Observe que não há nada de especial sobre os reais, além de sua estrutura

de corpo para que Rn seja um espaço vetorial sobre R. Mais geralmente,

dado um corpo qualquer K, o espaço Kn é um espaço vetorial sobre K, com

Page 7: MA33 - Introdução à Álgebra Linear

1. O QUE É ÁLGEBRA LINEAR? 7

operações semelhantes às de adição de vetores e de multiplicação de vetores

por escalares que de�nimos no caso em que K = R.Por exemplo, os espaços vetoriais Fn

2 sobre F2, por mais inócuos que

possam parecer, são de extrema utilidade em várias aplicações, dentre elas

na construção de códigos corretores de erros (veja a referência [3] para maiores

detalhes sobre esta teoria).

Outros exemplos importantes de espaços vetoriais são os espaços R e Csobre o corpo Q e o espaço C sobre o corpo R.

Como sucede com frequência em Matemática, ao introduzir um conceito

para lidar com determinado problema, cria-se um instrumento que muitas

vezes transcende o problema inicial e se constitui em um conceito central em

vários outros contextos. Isto ocorreu com a noção de espaço vetorial, que

inicialmente foi introduzida para tratar de alguns tipos de problemas em Rn,

como a resolução de sistemas de equações lineares cuja discussão iniciaremos

na próxima subseção, e se desenvolveu em uma teoria com vida própria.

Pode-se sinteticamente dizer que a Álgebra Linear é a parte da Matemática

que se dedica ao estudo dos espaços vetoriais e de certas funções entre esses

espaços, chamadas de transformações lineares.

Embora muitas das ferramentas básicas da Álgebra Linear, particular-

mente as que estão relacionadas com sistemas lineares, datem da antigui-

dade, o assunto começou a tomar sua forma atual em meados dos século

XIX. A partir desta época, muitas noções estudadas em séculos anteriores

foram abstraídas e muitos métodos generalizados.

A Álgebra Linear tem várias aplicações fora da Matemática. Por exemplo,

citamos a teoria da relatividade e a mecânica quântica na Física e a teoria

de análise de regressão na Estatística.

A seguir, daremos alguns exemplos diferentes de Rn para ilustrar situações

onde aparecem os espaços vetoriais e que, muitas vezes, quando tratadas

dessa forma ganham clareza.

Exemplo 1 O conjunto das funções de um conjunto não vazio A em Rforma um espaço vetorial sobre R, onde a soma é a soma usual de funções

Page 8: MA33 - Introdução à Álgebra Linear

8 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES

com valores reais

(f + g)(x) = f(x) + g(x), para todo x ∈ A,

e a multiplicação de uma função f por um escalar a ∈ R é de�nida como

sendo

(a f)(x) = a f(x), para todo x ∈ A.

Em particular, se I = [a, b] é um intervalo em R, sabe-se do Cálculo Dife-

rencial e Integral que o conjunto das funções contínuas, bem como o conjunto

das funções integráveis, de I em R, são espaços vetoriais sobre R.

Exemplo 2 De acordo com o Exemplo 1, o conjunto S das sequências de

números reais, isto é, o conjunto das funções de N \ {0} em R é um espaço

vetorial sobre R. É fácil veri�car (leitor, faça-o) que o conjunto R(a, b) dassequências (un) em S que satisfazem a recorrência

un+1 = aun + bun−1, n ≥ 2,

onde a e b são dois números reais �xados, é um espaço vetorial sobre R. Emparticular, o conjunto R(1, 1), que contém a sequência de Fibonacci2 (aquela

para a qual u1 = u2 = 1), é um espaço vetorial. Veremos no Capítulo 5

como esta informação nos ajudará a achar todas as sequências em R(1, 1),determinando suas fórmulas fechadas.

Exemplo 3 (Peano) O conjunto K[x] dos polinômios com coe�cientes em

um corpo K forma um espaço vetorial sobre K. Para n ∈ N, os conjuntos

K[x]n = {p(x) ∈ K[x] ; grau(p(x)) ≤ n} ∪ {0}

também são espaços vetoriais sobre K. Em particular, o conjunto

R[x]2 = {a0 + a1x+ a2x2; a0, a1, a2 ∈ R}

é um espaço vetorial sobre R.2Apelido de Leonardo de Pisa (Itália, ∼ 1170 - ∼ 1250). Foi o primeiro grande mate-

mático europeu da Idade Média.

Page 9: MA33 - Introdução à Álgebra Linear

1. O QUE É ÁLGEBRA LINEAR? 9

1.3 Sistemas de Equações Lineares

Desde a antiguidade, em diversas áreas do conhecimento, muitos pro-

blemas são modelados matematicamente por sistemas de equações lineares.

Damos a seguir um exemplo de sistema de equações lineares:{x+ y = 36

x− y = 2,(1)

onde se subentende que estamos buscando dois números reais cuja soma

vale 36 e cuja diferença vale 2. Portanto, as soluções procuradas podem ser

representadas por pares de números reais (a, b) tais que, se substituírmos x

por a e y por b, nas equações, elas se tornam igualdades de fato. Por exemplo,

o par (x, y) = (19, 17) é uma solução, pois obtemos as igualdades:{19 + 17 = 36

19− 17 = 2.

Os sistemas com duas equações lineares, como o acima, já eram consi-

derados pelos babilônios por volta de 1800 a.C. e resolvidos por um método

que chamamos hoje de método de eliminação gaussiana3.

Por exemplo, para resolver o sistema de equações (1), ao somarmos a

segunda equação à primeira, o transformamos no �sistema equivalente�,{2x = 38

x− y = 2,

que seguimos transformando até obtermos um sistema onde as soluções são

trivialmente encontradas:{2x = 38

x− y = 2⇔

{x = 19

x− y = 2⇔

{x = 19

x− y − x = 2− 19⇔

{x = 19

y = 17.

3Em homenagem a Carl Friedrich Gauss (Alemanha, 1777 - 1855), considerado um dos

maiores matemáticos de todos os tempos.

Page 10: MA33 - Introdução à Álgebra Linear

10 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES

Esse método será generalizado e sistematizado para sistemas de equações

lineares com m equações e n incógnitas do tipoa11x1 + a12x2 + · · ·+ a1nxn = b1

a21x1 + a22x2 + · · ·+ a2nxn = b2...

am1x1 + am2x2 + · · ·+ amnxn = bm ,

(2)

onde os aij's e os bi's, para 1 ≤ i ≤ m e 1 ≤ j ≤ n, são números reais dados,

ou, mais geralmente, elementos de um corpo K dado.

Seja

S = {(c1, c2, . . . , cn) ∈ Rn ; ai1c1 + ai2c2 + · · ·+ aincn = bi, 1 ≤ i ≤ m}.

Esse subconjunto de Rn é chamado de conjunto solução do sistema (2). É

precisamente este conjunto que queremos determinar ou descrever o mais

explicitamente possível.

Note que para resolver o sistema (1), do exemplo acima, o modi�camos

gradativamente, por meio de uma sequência de transformações elementares,

em um sistema mais simples de resolver, onde por transformação elementar

de um sistema entendemos uma das seguintes transformações:

1) Trocar a posição relativa de duas equações do sistema;

2) Trocar uma equação pela soma membro a membro da própria equação

com um múltiplo de outra;

3) Trocar uma equação dada por um de seus múltiplos (i.e., a equação obtida

multiplicando ambos os membros da equação dada por um número real não

nulo).

Diremos que dois sistemas de equações lineares são sistemas equivalentes,

se pudermos obter um sistema do outro a partir de uma sequência �nita de

transformações elementares.

Esta relação entre sistemas é efetivamente uma relação de equivalência.

De fato, ela é claramente re�exiva, pois basta multiplicar uma das equações

Page 11: MA33 - Introdução à Álgebra Linear

1. O QUE É ÁLGEBRA LINEAR? 11

do sistema por 1; é transitiva, pois basta concatenar uma sequência de trans-

formações elementares com uma outra; e é simétrica, pois podemos desfazer

uma transformação elementar com outra.

Assim, é imediato veri�car que:

Sistemas de equações lineares equivalentes possuem mesmo conjunto solução.

Dentre os sistemas de equações lineares, ocupam lugar de destaque os

sistemas homogêneos, ou seja, aqueles sistemas como em (2), porém com os

bi's todos nulos: a11x1 + a12x2 + · · ·+ a1nxn = 0

a21x1 + a22x2 + · · ·+ a2nxn = 0...

am1x1 + am2x2 + · · ·+ amnxn = 0.

(3)

Esses sistemas possuem peculiaridades não compartilhadas pelos sistemas

mais gerais. Por exemplo, o vetor (0, 0, . . . , 0) pertence ao conjunto Sh de

soluções do sistema. Além disso, se os vetores u = (c1, c2, . . . , cn) e u′ =

(c′1, c′2, . . . , c

′n) são soluções do sistema, e se a ∈ R, então os vetores

u+ u′ = (c1 + c′1, c2 + c′2, . . . , cn + c′n) e au = (ac1, ac2, . . . , acn)

também são soluções do sistema (3) (leitor, veri�que).

Assim, resulta que o espaço Sh das soluções do sistema (3) é um espaço

vetorial sobre R De fato, as propriedades A1 e A2 da de�nição são satisfeitas

para todos os vetores de Rn e em particular para os de Sh. Por outro lado,

(0, 0, . . . , 0) ∈ Sh e se (c1, c2, . . . , cn) ∈ Sh, então

−1(c1, c2, . . . , cn) = (−c1,−c2, . . . ,−cn) ∈ Sh,

o que mostra que a adição em Sh possui também as propriedades A3 e A4.

Além disso, as propriedades ME1�ME4 da multiplicação por escalar são fa-

cilmente veri�cadas para Sh.

Note que o que há de essencial em um sistema de equações lineares

(2) são os coe�cientes das equações que o formam além dos números que

Page 12: MA33 - Introdução à Álgebra Linear

12 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES

compõem os segundos membros das equações. Consideremos os vetores

(ai1, ai2, . . . , ain, bi) de Rn+1 que representam os coe�cientes das equações do

sistema (2) acrescidos dos segundos membros e os organizemos como linhas

de uma tabela, chamada de matriz ampliada do sistema (2), como segue:a11 a12 · · · a1n b1

a21 a22 . . . a2n b2...

......

...

am1 am2 · · · amn bm

. (4)

Quando o sistema de equações é homogêneo, a ele associamos a matriza11 a12 · · · a1n

a21 a22 . . . a2n...

......

am1 am2 · · · amn

,

eliminando a coluna de zeros da direita na matriz (4).

As matrizes surgiram por volta do ano 200 a.C. com os chineses, motiva-

dos pelo interesse em calcular soluções de sistemas com mais de quatro equa-

ções lineares. De fato, no Capítulo 8 do texto intitulado Jiuzhang suanshu, de

autor desconhecido, que signi�ca �Nove capítulos sobre a Arte Matemática" ,

�ca claro que o procedimento de resolução de sistemas lineares usado pelos

chineses é semelhante ao método de escalonamento, que discutiremos ainda

neste capítulo, e é apresentado na forma de matrizes. Cabe observar que os

chineses só consideravam sistemas lineares com o mesmo número de equa-

ções e incógnitas, não constando em seus escritos o motivo desses sistemas

produzirem sempre uma única solução e como o algoritmo chinês funcionava.

Problemas

1.1 Veri�que que o conjunto das funções de um conjunto não vazio A nos

reais é um espaço vetorial sobre R, com as operações de�nidas no Exemplo

Page 13: MA33 - Introdução à Álgebra Linear

1. O QUE É ÁLGEBRA LINEAR? 13

1. Veri�que também que, para cada par de números reais (a, b), o conjunto

das recorrências R(a, b), de�nido no Exemplo 2, é um espaço vetorial sobre

R.

1.2 Seja v um elemento não nulo de um espaço vetorial V sobre R. Mostre

que é injetora a função

R → V

t 7→ tv.

1.3 Sejam v1 e v2 elementos de um espaço vetorial V sobre R. Mostre que a

função

R2 → V

(a1, a2) 7→ a1v1 + a2v2

é injetora se, e somente se, v1 e v2 não são colineares.

1.4 Diga, em cada caso, por que o conjunto com as operações indicadas não

satisfaz à de�nição de espaço vetorial, onde a ∈ R.

a) R2, com as operações:

(x, y) + (x′, y′) = (x+ x′, y + y′) e a(x, y) = (3ax, 3ay).

b) R2, com as operações:

(x, y) + (x′, y′) = (xx′, yy′) e a(x, y) = (ax, 0).

c) R3, com as operações:

(x, y, z) + (x′, y′, z′) = (0, 0, 0) e a(x, y, z) = (ax, ay, az).

1.5 Sejam U e W dois espaços vetoriais sobre um corpo K. Considere o

produto cartesiano V = U ×W desses dois conjuntos. De�na as seguintes

operações em V :

(u1, w1) + (u2, w2) = (u1 + u2, w1 + w2) e a(u1, w1) = (au1, aw1),

onde u1, u2 ∈ U , w1, w2 ∈ W e a ∈ K. Mostre que V com as operações de

adição e de mutiplicação por escalar, acima de�nidas, é um espaço vetorial

sobre K. Este espaço vetorial é chamado de espaço produto de U por W .

Page 14: MA33 - Introdução à Álgebra Linear

14 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES

2 Matrizes

As matrizes são ferramentas básicas da Álgebra Linear, pois além de for-

necerem meios para a resolução dos sistemas de equações lineares, elas tam-

bém representarão as transformações lineares entre espaços vetoriais, como

veremos no Capítulo 6.

2.1 A De�nição de Matriz

Dados m e n em N \ {0}, de�nimos uma matriz real de ordem m por n,

ou simplesmente uma matriz m por n (escreve-se m× n), como uma tabela

formada por elementos de R distribuídos em m linhas e n colunas. Estes

elementos de R são chamados entradas da matriz4. Por exemplo, a matriz

[3] é uma matriz 1× 1, ao passo que[2 1 0

−1 −2 4

]

é uma matriz 2×3. As entradas da primeira linha da matriz são dadas pelos

números reais 2, 1 e 0 e as entradas da segunda linha da matriz são dadas

pelos números reais −1, −2 e 4.

É usual indicarmos as entradas de uma matriz arbitrária A pelos sím-

bolos Aij, ou ainda aij , onde os índices indicam, nessa ordem, a linha e a

coluna onde o elemento se encontra. Assim, uma matriz m×n é usualmente

representada por

A =

a11 a12 . . . a1n

a21 a22 . . . a2n...

......

am1 am2 . . . amn

,

4As entradas de uma matriz não precisam ser necessariamente números reais, podem

ser números complexos ou, mais geralmente, elementos de um corpo K.

Page 15: MA33 - Introdução à Álgebra Linear

2. MATRIZES 15

ou por A = [aij]m×n , ou simplesmente por A = [aij], quando a ordem da

matriz estiver subentendida. O símbolo M(m,n) denota o conjunto das

matrizes m× n.

Dependendo dos valores de m e n, uma matriz m × n recebe um nome

especial. De fato, toda matriz 1× n é chamada de uma matriz linha e toda

matriz m×1 é chamada de uma matriz coluna. Uma matriz n×n é chamada

de matriz quadrada de ordem n. Por exemplo, a matriz[1 −3 1 0 4

]é uma matriz linha de ordem 1× 5 e a matriz2 −1 0

0 1 2

3 1 4

é uma matriz quadrada de ordem 3.

Se A = [aij] é uma matriz quadrada de ordem n, as entradas aii , com

1 ≤ i ≤ n, formam a diagonal principal de A.

Uma matriz diagonal de ordem n é uma matriz quadrada de ordem n em

que os elementos que não pertencem à diagonal principal são iguais a zero:a11 0 . . . 0

0 a22 . . . 0...

......

0 0 . . . ann

.

A matriz diagonal de ordem n cujas entradas da diagonal principal são

iguais ao número real 1, 1 0 . . . 0

0 1 . . . 0...

......

0 0 . . . 1

,

é chamada matriz identidade de ordem n e denotada usualmente por In. Em

alguns casos, representaremos por simplicidade In apenas por I.

Page 16: MA33 - Introdução à Álgebra Linear

16 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES

Uma matriz triangular superior de ordem n é uma matriz quadrada de

ordem n em que todos os elementos abaixo da diagonal principal são iguais

a zero: a11 a12 . . . a1n

0 a22 . . . a2n...

......

0 0 . . . ann

.

Portanto, uma matriz quadrada A = [aij] de ordem n é triangular superior

se aij = 0 sempre que i > j.

Analogamente, uma matriz triangular inferior de ordem n é uma matriz

quadrada de ordem n em que todos os elementos acima da diagonal principal

são iguais a zero: a11 0 . . . 0

a21 a22 . . . 0...

......

an1 an2 . . . ann

.

Portanto, uma matriz quadrada A = [aij] de ordem n é triangular inferior se

aij = 0 sempre que i < j.

Uma matriz m × n cujas entradas são todas iguais a zero é chamada de

uma matriz nula. Por exemplo, a matriz[0 0 0

0 0 0

]

é uma matriz nula de ordem 2× 3.

2.2 Operações com Matrizes

Dizemos que duas matrizes A = [aij]m×n e B = [bij]m×n, de mesma ordem,

são iguais, escrevendo A = B, quando aij = bij para todo 1 ≤ i ≤ m e para

todo 1 ≤ j ≤ n.

Page 17: MA33 - Introdução à Álgebra Linear

2. MATRIZES 17

Por exemplo, se x e y denotam números reais, temos que as matrizes[x 0

1 y

]e

[−1 0

1 2

]são iguais quando x = −1 e y = 2.

De�nimos a seguir uma operação de adição no conjunto M(m,n) das

matrizes m× n.

Se A = [aij] e B = [bij] são duas matrizes de mesma ordem m × n, a

soma de A e B, denotada A + B, é a matriz C = [cij] de ordem m× n tal

que cij = aij + bij para todo 1 ≤ i ≤ m e para todo 1 ≤ j ≤ n.

Por exemplo,[2 3 −10 −2 1

]+

[−2 −3 1

0 2 −1

]=

[0 0 0

0 0 0

].

Dada uma matriz A = [aij], de�ne-se a matriz oposta de A, como a matriz

−A = [−aij].A adição de matrizes tem propriedades semelhantes à adição nos números

reais, ou à adição de elementos em espaços vetoriais, como mostra o resultado

a seguir.

Proposição 1.2.1. Se A, B e C são matrizes de mesma ordem, então :

(i) A+ (B + C) = (A+B) + C (associatividade da adição);

(ii) A+B = B + A (comutatividade da adição);

(iii) A+ 0 = A, onde 0 denota a matriz nula m× n (elemento neutro);

(iv) A+ (−A) = 0.

Demonstração As propriedades acima decorrem diretamente das de�ni-

ções de igualdade e adição de matrizes. Por esta razão, provaremos apenas

o item (i) e deixaremos (ii), (iii) e (iv) como exercício (veja Problema 2.5).

(i): Se A = [aij], B = [bij] e C = [cij], então

A+ (B + C) = [aij] + [bij + cij] = [aij + (bij + cij)] =

[(aij + bij) + cij] = [aij + bij] + [cij] = (A+B) + C,

Page 18: MA33 - Introdução à Álgebra Linear

18 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES

onde usamos a associatividade da adição de números reais. �

Uma outra operação importante com matrizes é a multiplicação por es-

calar. Dada a matriz A = [aij]m×n, de�nimos o produto de A pelo número

real a, como aA = [aaij]m×n.

Por exemplo,

−3

2 0

1 1

0 −1

=

−6 0

−3 −30 3

.

Tendo de�nido as operações de adição e multiplicação por escalar em

M(m,n), de�nimos a operação de subtração da maneira usual: dada as

matrizes A e B emM(m,n),

A−B = A+ (−B).

Proposição 1.2.2. As seguintes propriedades se veri�cam para quaisquer A

e B ∈M(m,n), e a, a′ ∈ R:

(i) a(A+B) = aA+ aB;

(ii) (a+ a′)A = aA+ a′A;

(iii) a(a′A) = (aa′)A;

(iv) 1A = A.

Demonstração Provaremos apenas (i) e deixaremos a demonstração das

demais propriedades ao leitor (veja Problema 2.5).

(i): De fato, sejam A = [aij], B = [bij] elementos deM(m,n) e a um elemento

de R, então

a(A+B) = a[aij + bij] = [a(aij + bij)] = [aaij + abij] =

[aaij] + [abij] = a[aij] + a[bij] = aA+ aB,

onde usamos a distributividade da multiplicação em relação à adição de nú-

meros reais. �

Page 19: MA33 - Introdução à Álgebra Linear

2. MATRIZES 19

Assim, com as Proposições 1.2.1 e 1.2.2, provamos que o conjuntoM(m,n)

é um espaço vetorial sobre R.

O conjunto das matrizes tem uma estrutura muito mais rica do que a de

simples espaço vetorial, obtida com a noção de produto de matrizes, noção

esta, fundamental para a resolução de sistemas de equações lineares com o

uso de matrizes.

Nosso próximo objetivo é, portanto, de�nir a multiplicação de matrizes e

mostrar algumas de suas propriedades. A de�nição de produto de matrizes

foi apresentada por Arthur Cayley (Inglaterra, 1821-1895), no trabalho inti-

tulado �A Memoir on the Theory of Matrices�, publicado em 1858 na revista

Philosophical Transactions of the Royal Society of London . Neste trabalho,

Cayley notou que a multiplicação de matrizes, como foi de�nida, simpli�ca

em muito o estudo de sistemas de equações lineares. Também observou que

esta multiplicação deixava de apresentar propriedades importantes, como a

comutatividade e a lei do corte, e que uma matriz não nula não é necessaria-

mente invertível.

Sejam A = [aij]m×n e B = [bij]n×p duas matrizes. De�nimos o produto

AB de A por B, denotado por AB, como a matriz C = [cij]m×p tal que

cij =n∑

k=1

aik bkj = ai1 b1j + · · ·+ ain bnj

para todo 1 ≤ i ≤ m e para todo 1 ≤ j ≤ p.

Vamos explicar esta fórmula para obter o elemento da matriz AB que se

encontra na i-ésima linha e j-ésima coluna:

Na matriz A, destaque a i-ésima linha, e na matriz B, a j-ésima coluna.

Feito isto, multiplique ordenadamente o primeiro elemento da linha com o

primeiro elemento da coluna, o segundo elemento da linha com o segundo

elemento da coluna, etc., o último elemento da linha com o último elemento

da coluna e �nalmente some esses números todos.

Page 20: MA33 - Introdução à Álgebra Linear

20 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES

Por exemplo, 2 4

0 0

−1 3

[−1 1

1 −1

]=

2(−1) + 4(1) 2(1) + 4(−1)0(−1) + 0(1) 0(1) + 0(−1)−1(−1) + 3(1) −1(1) + 3(−1)

=

2 −20 0

4 −4

.

Note que para o produto de A por B estar de�nido, o número de colunas

de A deve ser igual ao número de linhas de B. Assim, se A e B são matrizes

2 × 3 e 3 × 1, respectivamente, o produto AB está de�nido e é uma matriz

2 × 1. Porém, o produto BA não está de�nido. Uma condição necessária

para que AB = BA é que A e B sejam matrizes quadradas de mesma ordem.

Contudo, esta condição não é su�ciente. Por exemplo, as matrizes

A =

[0 1

2 0

]e B =

[0 1

1 0

]são matrizes quadradas de ordem 2, mas AB 6= BA. Assim, vemos que a

multiplicação de matrizes não possui a propriedade comutativa.

Observe que [1 1

1 1

] [1 1

−1 −1

]= 0,

sem que nenhuma das duas matrizes seja nula. Portanto, na multiplicação de

matrizes, podemos ter AB = 0 sem que necessariamente A ou B seja nula.

Lembremos que isto não ocorre com a multiplicação de números reais, pois

dados dois números reais x e y tais que xy = 0, tem-se obrigatoriamente que

x = 0 ou y = 0.

Os sistemas lineares como em (2) da Seção 1 se expressam de modo per-

feito pela equação matricial

AX = B,

onde

A =

a11 a12 . . . a1n

a21 a22 . . . a2n...

......

am1 am2 . . . amn

, X =

x1

x2

...

xn

e B =

b1

b2...

bm

.

Page 21: MA33 - Introdução à Álgebra Linear

2. MATRIZES 21

As matrizes A, X e B são chamadas, respectivamente, de matriz dos

coe�cientes do sistema, matriz das incógnitas e matriz dos termos indepen-

dentes.

Na seguinte proposição apresentamos algumas propriedades da multipli-

cação de matrizes.

Proposição 1.2.3. Desde que as operações sejam possíveis, temos:

(i) A(B + C) = AB + AC (distributividade à esquerda da multiplicação

em relação à adição);

(ii) (A+B)C = AC +BC (distributividade à direita da multiplicação em

relação à adição);

(iii) (AB)C = A(BC) (associatividade);

(iv) A I = IA = A (existência de elemento identidade).

Demonstração Provaremos a propriedade (iii) e deixaremos a demons-

tração das demais propriedades ao leitor (veja Problema 2.5).

(iii): Suponhamos que as matrizes A, B e C sejam de ordens n× r, r × s e

s×m, respectivamente. Temos que((AB)C

)ij=∑s

k=1(AB)ikckj =∑s

k=1

(∑rl=1 ailblk

)ckj =

∑rl=1 ail

(∑sk=1 blkckj

)=∑r

l=1 ail(BC)lj =(A(BC))ij.

Isto mostra que a propriedade (iii) é válida. �

Tendo de�nido a multiplicação de matrizes, de�nimos a potenciação da

maneira usual: dados A emM(n, n) e k ∈ N \ {0},

A0 = In e Ak = A A · · ·A︸ ︷︷ ︸k fatores

.

Dada uma matriz A = [aij]m×n, chamamos de transposta de A, e denota-

mos por At, a matriz [bij]n×m, onde

bij = aji,

Page 22: MA33 - Introdução à Álgebra Linear

22 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES

para todo 1 ≤ i ≤ n e para todo 1 ≤ j ≤ m.

Por exemplo, −4 0

−1 2

0 3

t

=

[−4 −1 0

0 2 3

].

Uma matriz quadrada A é chamada simétrica se At = A e antissimétrica

se At = −A.Por exemplo, dadas as matrizes

A =

2 −1 3

−1 1 0

3 0 5

e B =

0 1 −3−1 0 2

3 −2 0

,

a matriz A é simétrica e B é antissimétrica.

Terminamos esta seção apresentando o conceito de matriz em blocos.

Uma matriz A é dita ser uma matriz em blocos se A está subdividida em ma-

trizes menores, chamadas blocos. Esta subdivisão é, geralmente, apresentada

por linhas horizontais e/ou linhas verticais, como mostra o seguinte exemplo:[2 1 1 0

6 4 0 1

]=

[2 1 | 1 0

6 4 | 0 1

].

Uma matriz pode ser subdividida em blocos de várias maneiras. Porexemplo,

0 1 0 2

1 4 2 1

0 0 5 3

=

0 1 | 0 2

1 4 | 2 1

−− −− −− −− −−0 0 | 5 3

=

0 | 1 | 0 2

−− −− −− −− −− −−1 | 4 | 2 1

0 | 0 | 5 3

.

Uma propriedade interessante da partição em blocos é que os resultados

das operações de adição e multiplicação com matrizes em blocos podem ser

obtidos efetuando o cálculo com os blocos, como se eles fossem simplesmente

elementos das matrizes.

Page 23: MA33 - Introdução à Álgebra Linear

2. MATRIZES 23

2.3 Matriz Inversa

Dada uma matriz quadrada A de ordem n, chamamos de inversa de A a

uma matriz quadrada B de ordem n tal que

AB = BA = In .

Por exemplo, dada a matriz

A =

[2 5

1 3

],

temos que a matriz

B =

[3 −5−1 2

]é uma inversa de A, já que AB = BA = I2 .

Note que uma matriz quadrada não possui necessariamente uma inversa.

Por exemplo, seja A =

[0 0

0 0

]. Dada qualquer matriz B =

[a b

c d

], temos

que

AB =

[0 0

0 0

] [a b

c d

]=

[0 0

0 0

]6= I2 .

Logo, A não tem inversa.

Mesmo que uma matriz não seja nula, ela pode não ter inversa. Por

exemplo, a matriz A =

[1 1

1 1

]não possui inversa, já que não existe uma

matriz quadrada B de ordem 2 tal que AB = I2 (veri�que).

Uma matriz quadrada A é dita invertível se A admite uma matriz inversa.

Se uma matriz A possui uma inversa, então essa inversa é única. De fato,

suponhamos que B e C são duas inversas de uma matriz A de ordem n× n.

Então AB = In e CA = In . Assim, por (iii) e (iv) da Proposição 1.2.3,

C = C In = C(AB) = (CA)B = InB = B.

Page 24: MA33 - Introdução à Álgebra Linear

24 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES

Já que a inversa, no caso de existir, é única, escrevemos A−1 para denotar a

inversa de A. Se k ∈ N\{0} e A é uma matriz invertível, de�nimos A−k por:

A−k = A−1A−1 · · ·A−1︸ ︷︷ ︸k fatores

.

Vejamos algumas propriedades das matrizes inversas.

Proposição 1.2.4. Sejam A e B matrizes quadradas de ordem n.

(i) Se A é invertível, então A−1 é também invertível e (A−1)−1 = A.

(ii) Se A e B são invertíveis, então AB também é invertível e

(AB)−1 = B−1A−1.

Deixamos a demonstração desta proposição ao leitor (veja Problema 2.12),

bem como a generalização do item (ii) para um número arbitrário de fatores.

O interesse das matrizes invertíveis reside no fato de que dado um sistema

linear de equações com n equações e n incógnitas, AX = B, se soubermos

que a matriz A é invertível e soubermos como calcular sua inversa, então o

sistema se resolve efetuando apenas a multiplicação da matriz A−1 com B,

pois

AX = B =⇒ X = (A−1A)X = A−1(AX) = A−1B.

Vimos que uma matriz quadrada não nula não possui necessariamente

inversa. Uma pergunta natural é se podemos caracterizar as matrizes qua-

dradas invertíveis, ou seja, se podemos apresentar uma condição necessária

e su�ciente para que uma matriz quadrada seja invertível. Também esta-

mos interessados em obter um método para o cálculo da inversa de uma

matriz invertível. No próximo capítulo, apresentaremos uma caracterização

de matrizes invertíveis e um método para inversão de matrizes que utiliza as

transformações elementares nas linhas de uma matriz e a forma escalonada.

No Capítulo 8, Proposição 8.3.1(iii), veremos um outro modo bem diferente

de atacar este problema pelo uso dos determinantes.

Problemas

Page 25: MA33 - Introdução à Álgebra Linear

2. MATRIZES 25

2.1* Sejam A=

[1 −2 3

4 1 0

]e B=

[−1 2 0

1 −2 0

].

Calcule 2A, 3B e 2A−3B.

2.2 Determine os valores de x, y e z em R para que as matrizes A e B dadas

sejam iguais:

A =

[x+ y 0

z x− 2y

]e B =

[13 0

1 4

].

2.3 Dadas as matrizes

A =

[−1 4 −22 0 −1

], B =

[0 1 −20 1 −1

], C =

113

e D = [−1 1],

determine:

(a) A+B; (b) −2C; (c) AC; (d) CD; (e) BC; (f) DA.

2.4* Considere as matrizes

A = [aij]4×5 com aij = i− j,

B = [bij]5×9 com bij = j e

C = [cij] com C = AB.

(a) É possível determinar c63? Justi�que a resposta.

(b) Determine c36.

2.5 Conclua as demonstrações das Proposições 1.2.1, 1.2.2 e 1.2.3.

2.6* Dada uma matriz A, dizemos que uma matriz X comuta com A se

AX = XA. Determine todas as matrizes que comutam com

A =

[1 0

0 3

].

2.7 a) Mostre que a matriz c In, onde c ∈ R, comuta com toda matriz X ∈M(n, n).

Page 26: MA33 - Introdução à Álgebra Linear

26 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES

b) Ache todas as matrizes M =

[x y

z t

]que comutam com a matriz

[1 1

0 1

].

2.8 Verdadeiro ou falso? Justi�que.

(a) Se A e B são matrizes quadradas de mesma ordem, então

(A−B)(A+B) = A2 −B2.

(b) Se A, B e C são matrizes quadradas de mesma ordem tais que AB = AC,

então B = C.

2.9 Mostre que se A é uma matriz triangular superior, então A2 também é

uma matriz triangular superior.

2.10* (a) Obtenha At, onde A =

[1 2 3

0 −1 4

].

(b) Veri�que que a transposta de uma matriz triangular superior é uma

matriz triangular inferior.

(c) Mostre que (A+B)t = At +Bt e (kA)t = kAt, onde A e B são matrizes

de mesma ordem e k ∈ R.

(d) Se A é uma matriz m × n e B é uma matriz n × p, prove que

(AB)t = BtAt.

(e) Mostre que (At)t = A para toda matriz A de ordem m× n.

2.11* Mostre que se B é uma matriz quadrada, então:

(a) B +Bt e BBt são simétricas;

(b) B −Bt é antissimétrica.

(c) Observando que

B =B +Bt

2+

B −Bt

2,

conclua que toda matriz quadrada se escreve como soma de uma matriz

simétrica e de uma matriz antissimétrica.

Page 27: MA33 - Introdução à Álgebra Linear

2. MATRIZES 27

(d) Mostre que a escrita em (c) é o único modo possível de escrever uma

matriz quadrada como soma de uma matriz simétrica e de uma matriz an-

tissimétrica.

2.12 Prove a Proposição 1.2.4.

2.13 Demonstre que:

(a) se A tem uma linha nula, então AB tem uma linha nula;

(b) se B tem uma coluna nula, então AB tem uma coluna nula;

(c) qualquer matriz quadrada com uma linha ou uma coluna nula não é

invertível.

2.14 Mostre que uma matriz A é invertível se, e somente se, At é invertível.

Conclua que as operações de inversão e de transposição comutam; isto é,

(At)−1 = (A−1)t, quando A é invertível.

2.15 Sejam a = (a1, . . . , an), b = (b1, . . . , bn) ∈ Rn. De�namos

Diag(a) =

a1 0 · · · 0

0 a2 · · · 0...

.... . .

...

0 0 · · · an

.

Mostre que:

(a) Diag(a) + cDiag(b) = Diag(a+ cb) onde c ∈ R;(b) Diag(a) ·Diag(b) = Diag(b) ·Diag(a) = Diag(a1b1, . . . , anbn);

(c) Diag(a)m = Diag(am1 , . . . , amn ), onde m ∈ N \ {0};

(d) Em que condições a matriz Diag(a) é invertível e qual é a sua inversa?

Este problema mostra que somar, multiplicar, calcular potências e inver-

ter matrizes diagonais é muito simples.

2.16 Supondo que as matrizes A,B e C são matrizes quadradas de mesma

ordem e invertíveis, resolva as seguintes equações matriciais nas quais X é a

incógnita:

Page 28: MA33 - Introdução à Álgebra Linear

28 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES

(a) CX + 2B = 3B; (b) CAX t = C; (c) ABX = C.

2.17 Dada uma matriz A =

[a b

c d

], mostre que :

a) se ad− bc 6= 0, então A é invertível e

A−1 =1

ad− bc

[d −b−c a

];

b) se ad− bc = 0, então A não é invertível.

Page 29: MA33 - Introdução à Álgebra Linear

Bibliogra�a

[1] H. P. Bueno, Álgebra Linear, um segundo curso , Coleção Textos Univer-

sitários, SBM, 2006.

[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,

2001.

[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-

mática e Aplicações, IMPA, 2008.

[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção

PROFMAT, SBM, 2012.

[5] V. J. Katz, A History of Mathematics - an Introduction , HarperCollins

College Publishers, 1993.

[6] S. Lang, Introduction to Linear Algebra , 2nd edition, Undergraduate Texts

in Mathematics, Springer, 1986.

[7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária,

IMPA, 1998.

[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção

Matemática Universitária, IMPA, 2010.

300

Page 30: MA33 - Introdução à Álgebra Linear

2

29

Livro: Introdução à Álgebra LinearAutores: Abramo Hefez

Cecília de Souza Fernandez

Capítulo 2: Transformação de Matrizese Resolução de Sistemas

Sumário

1 Transformação de Matrizes . . . . . . . . . . . . . . 30

1.1 Transformações Elementares de Matrizes . . . . . . 30

1.2 Forma Escalonada de uma Matriz . . . . . . . . . . 32

1.3 Matrizes Elementares e Aplicações . . . . . . . . . 35

2 Resolução de Sistemas Lineares . . . . . . . . . . . 42

Page 31: MA33 - Introdução à Álgebra Linear

30CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS

O método de eliminação em sistemas de equações lineares consiste em e-

fetuar repetidamente transformações elementares sobre um sistema de equa-

ções lineares, de modo a ir obtendo sistemas equivalentes, até reduzir o sis-

tema original a um sistema de fácil resolução. Neste capítulo, reinterpreta-

remos na matriz ampliada associada a um sistema de equações lineares as

transformações que se efetuam nos sistemas de equações ao longo do processo

de eliminação, explicitando seu caráter algorítmico, ou seja, de procedimento

sistemático e efetivo. Esse método é essencialmente devido a Gauss e foi

aperfeiçoado por Camille Jordan (França, 1838 - 1922) e, por este motivo, é

chamado de eliminação de Gauss-Jordan.

1 Transformação de Matrizes

1.1 Transformações Elementares de Matrizes

Seja A uma matriz m × n. Para cada 1 ≤ i ≤ m, denotemos por Li a

i-ésima linha de A. De�nimos as transformações elementares nas linhas da

matriz A como se segue:

1) Permutação das linhas Li e Lj, indicada por Li ↔ Lj .

2) Substituição de uma linha Li pela adição desta mesma linha com c

vezes uma outra linha Lj, indicada por Li → Li + cLj .

3) Multiplicação de uma linha Li por um número real c não nulo, indicada

por Li → cLi .

Por exemplo, vamos efetuar algumas transformações elementares nas li-

nhas da matriz 2 1 2 3

2 1 4 0

0 −1 2 3

.

Page 32: MA33 - Introdução à Álgebra Linear

1. TRANSFORMAÇÃO DE MATRIZES 31

Temos 2 1 2 3

2 1 4 0

0 −1 2 3

−→L1 ↔ L3

0 −1 2 3

2 1 4 0

2 1 2 3

,

2 1 2 3

2 1 4 0

0 −1 2 3

−→L2 → 1

2 L2

2 1 2 3

1 1/2 2 0

0 −1 2 3

e 2 1 2 3

2 1 4 0

0 −1 2 3

−→L2 → L2 − L1

2 1 2 3

0 0 2 −30 −1 2 3

.

Sejam A e B matrizes de ordem m×n. A matriz A é dita ser equivalente

por linhas à matriz B se B pode ser obtida de A pela aplicação sucessiva de

um número �nito de transformações elementares sobre linhas.

Por exemplo, as matrizes 1 0

2 1

−2 3

e

1 0

0 1

0 0

são equivalentes por linhas já que 1 0

2 1

−2 3

−→L2 → L2 − 2L1

1 0

0 1

−2 3

−→L3 → L3 + 2L1

1 0

0 1

0 3

−→L3 → L3 − 3L2

1 0

0 1

0 0

.

Observe que a noção de equivalência de matrizes por linhas corresponde

à noção de equivalência de sistemas lineares quando se efetuam as respec-

tivas transformações sobre as equações. De fato, a sistemas equivalentes,

correspondem matrizes associadas equivalentes, e vice-versa.

Page 33: MA33 - Introdução à Álgebra Linear

32CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS

Note que se A é equivalente por linhas a uma matriz B, então B é equiva-

lente por linhas à matriz A, já que toda transformação elementar sobre linhas

é reversível. Mais precisamente, se e representa uma das transformações

elementares nas linhas de uma matriz A de ordem m×n, denotando por e(A)a matriz obtida de A aplicando-lhe a transformação e, temos o resultado a

seguir.

Proposição 2.1.1. Toda transformação elementar e nas linhas de matri-

zes em M(m,n) é reversível, no sentido de que existe uma transformação

elementar e′ tal que e′(e(A)) = A e e(e′(A)) = A, para todo A ∈M(m,n).

Demonstração Se e é uma transformação elementar do tipo Li ↔ Lj , tome

e′ = e. Se e é uma transformação elementar do tipo Li → cLi , tome e′ como

a tranformação Li → 1cLi . Finalmente, se e é uma transformação elementar

do tipo Li → Li + cLj , tome e′ como a tranformação Li → Li − cLj . �

Não é difícil o leitor se convencer de que, em cada caso na demonstra-

ção anterior, e′ é a única transformação elementar com a propriedade que

e′(e(A)) = A para toda matriz A ∈M(m,n).

Se A é uma matriz equivalente por linhas a uma matriz B (e, então, B é

equivalente por linhas a A), dizemos simplesmente que A e B são matrizes

equivalentes.

1.2 Forma Escalonada de uma Matriz

Nesta subseção mostraremos que toda matriz pode ser transformada por

meio de uma sequência de transformações elementares sobre linhas numa

matriz em uma forma muito especial, a forma escalonada, que será utilizada

na próxima seção para resolver sistemas de equações lineares.

Uma matriz m×n será dita estar na forma escalonada se for nula, ou se:

1) o primeiro elemento não nulo de cada linha não nula é 1;

2) cada coluna que contém o primeiro elemento não nulo de alguma linha

tem todos os seus outros elementos iguais a zero;

Page 34: MA33 - Introdução à Álgebra Linear

1. TRANSFORMAÇÃO DE MATRIZES 33

3) toda linha nula ocorre abaixo de todas as linhas não nulas;

4) se L1, . . . , Lp são as linhas não nulas, e se o primeiro elemento não nulo

da linha Li ocorre na coluna ki , então k1 < k2 < · · · < kp .

Por exemplo, a matriz 0 1 2 0 1

0 0 0 1 3

0 0 0 0 0

está na forma escalonada, pois todas as condições da de�nição anterior são

satisfeitas, mas as matrizes1 0 0 0

0 1 −2 0

0 0 1 0

e

0 3 1

1 0 −10 0 0

não estão na forma escalonada, pois a primeira não satisfaz a condição 2,

enquanto a segunda não satisfaz a condição 1 (observe que ela também não

satisfaz a condição 4).

Cabe aqui uma observação acerca da terminologia que utilizamos. Usu-

almente, na literatura, o termo �forma escalonada de uma matriz� refere-se

a uma forma menos especial do que a nossa, a qual vários autores chamam

de forma escalonada reduzida. A nossa justi�cativa para o uso dessa ter-

minologia é que não há razão para adjetivarmos a forma escalonada, pois

utilizaremos apenas uma dessas noções.

O resultado que apresentaremos a seguir nos garantirá que toda matriz é

equivalente por linhas a uma matriz na forma escalonada. O interesse desse

resultado reside no fato que ao reduzir a matriz ampliada associada a um

dado sistema de equações lineares à forma escalonada, encontramos um outro

sistema equivalente ao sistema dado que se encontra em sua expressão mais

simples. Quando aplicado aos sistemas de equações lineares, este resultado

é chamado de processo de eliminação de Gauss-Jordan.

Page 35: MA33 - Introdução à Álgebra Linear

34CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS

Vejamos agora um algoritmo que reduz por linhas uma matriz dada não

nula qualquer a uma matriz na forma escalonada. O termo reduzir por linhas

signi�ca transformar uma matriz usando as transformações elementares sobre

linhas. Este processo é também chamado de escalonamento de matrizes.

Passo 1. Seja k1 a primeira coluna da matriz dada com algum elemento não

nulo. Troque as linhas entre si de modo que esse elemento não nulo apareça

na primeira linha, isto é, de modo que na nova matriz a1k1 6= 0.

Passo 2. Para cada i > 1, realize a transformação

Li → Li −aik1a1k1

L1 .

Repita os Passos 1 e 2 na matriz assim obtida, ignorando a primeira linha.

Novamente, repita os Passos 1 e 2 nessa nova matriz, ignorando as duas

primeiras linhas etc., até alcançar a última linha não nula.

Passo 3. Se L1, . . . , Lp são as linhas não nulas da matriz obtida após termi-

nar o processo acima e se ki é a coluna na qual aparece o primeiro elemento

não nulo aiki da linha Li, aplique as transformações

Li →1

aikiLi para todo 1 ≤ i ≤ p.

Passo 4. Realize na matriz obtida até então as transformações

L` → L` − a`ki Li , ` = 1, . . . , i− 1,

para i = 2. Depois para i = 3, e assim por diante, até i = p. Dessa forma,

obteremos uma matriz na forma escalonada que é equivalente por linhas à

matriz dada.

Estabelecemos assim o seguinte resultado:

Teorema 2.1.2. Toda matriz é equivalente a uma matriz na forma escalo-

nada.

Por exemplo, a matriz 1 2 −3 0

0 0 4 2

0 0 0 1/2

Page 36: MA33 - Introdução à Álgebra Linear

1. TRANSFORMAÇÃO DE MATRIZES 35

é transformada numa matriz na forma escalonada com a seguinte sequência

de transformações sobre suas linhas:1 2 −3 0

0 0 4 2

0 0 0 1/2

−→L2 → 1

4 L2

1 2 −3 0

0 0 1 1/2

0 0 0 1/2

−→L3 → 2L3

1 2 −3 0

0 0 1 1/2

0 0 0 1

−→L1 → L1 + 3L2

1 2 0 3/2

0 0 1 1/2

0 0 0 1

−→L1 → L1 − 3

2 L3

L2 → L2 − 12 L3

1 2 0 0

0 0 1 0

0 0 0 1

.

Pelo algoritmo acima, deduzimos que qualquer matriz é equivalente a pelo

menos uma matriz na forma escalonada. Como em cada passo do algoritmo

temos certa margem de escolhas de transformações elementares sobre as li-

nhas da matriz, não há aparentemente nenhum motivo para poder a�rmar

que a forma escalonada de uma dada matriz seja única. Fato é que, não

importando qual a sequência de transformações elementares que efetuemos

nas linhas de uma dada matriz, no �nal do processo chegamos a uma mesma

matriz na forma escalonada que é equivalente à matriz dada. Este resultado

será provado na última seção do capítulo

1.3 Matrizes Elementares e Aplicações

Uma matriz elementar de ordem n é uma matriz quadrada de ordem n

obtida da matriz identidade In a parir da aplicação de uma transformação

elementar, isto é, trata-se de uma matriz da forma

E = e(In),

onde e é uma transformação elementar. Por exemplo, a matriz identidade é

uma matriz elementar e as matrizes

e(I2) =

[0 1

1 0

], onde e : L1 ↔ L2,

Page 37: MA33 - Introdução à Álgebra Linear

36CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS

e

e(I3) =

1 1 0

0 1 0

0 0 1

, onde e : L1 → L1 + L2,

são matrizes elementares de ordem 2 e de ordem 3, respectivamente.

Sejam A ∈ M(m,n) e e uma transformação elementar. O próximo re-

sultado, cuja demonstração �ca como exercício para o leitor (veja Problema

1.3), nos diz que a matriz e(A) pode ser obtida como o produto da matriz

elementar e(Im) pela matriz A. Por exemplo, consideremos

A =

1 2

0 1

2 1

.

Se e1 : L1 ↔ L2 , e2 : L1 → 2L1 e e3 : L1 → L1 + 2L2 , uma rápida veri�cação

nos mostra que e1(A) = e1(I3)A, e2(A) = e2(I3)A e e3(A) = e3(I3)A.

Teorema 2.1.3. Seja e uma transformação elementar sobre matrizes de

M(m,n). Considere a matriz elementar E = e(Im). Então

e(A) = EA, para todo A ∈M(m,n).

Como consequência do Teorema 2.1.3, temos

Corolário 2.1.4. Sejam A e B em M(m,n). Então, A é equivalente a B

se, e somente se, existem matrizes elementares E1, . . . , Es de ordem m tais

que

Es · · ·E2 E1 A = B.

Demonstração Por de�nição, A é equivalente a B quando existem trans-

formações elementares e1, . . . , es tais que

es(. . . (e2(e1(A))) . . . ) = B.

Mas, pelo teorema anterior, a igualdade acima equivale a

Es · · ·E2 E1 A = B,

Page 38: MA33 - Introdução à Álgebra Linear

1. TRANSFORMAÇÃO DE MATRIZES 37

onde Ei = ei(Im), para cada 1 ≤ i ≤ s. �

Corolário 2.1.5. Toda matriz elementar é invertível e sua inversa também

é uma matriz elementar.

Demonstração Seja E uma matriz elementar. Seja e a transformação

elementar tal que E = e(I). Se e′ é a transformação elementar inversa de e e

se E ′ = e′(I), pelo Teorema 2.1.3 temos

I = e′(e(I)) = e′(E) = e′(I)E = E ′E

e

I = e(e′(I)) = e(E ′) = e(I)E ′ = E E ′ .

Logo, E é invertível e E−1 = E ′. �

Pelo Corolário 2.1.5 sabemos como inverter uma matriz elementar. Por

exemplo, se considerarmos as matrizes

A =

0 1 0

1 0 0

0 0 1

e B =

1 2 0

0 1 0

0 0 1

,

podemos concluir que A e B são invertíveis, já que A e B são matrizes

elementares. De fato, A = e1(I3) com e1 : L1 ↔ L2 e B = e2(I3) com

e2 : L1 → L1 + 2L2 . Pelo Corolário 2.1.5, A−1 = e′1(I3), onde e′1 é a trans-

formação elementar inversa de e1 e B−1 = e′2(I3), onde e′2 é a transformação

elementar inversa de e2 . Mais precisamente,

A−1 =

0 1 0

1 0 0

0 0 1

e B−1 =

1 −2 0

0 1 0

0 0 1

.

A seguir, apresentamos o resultado central desta seção que caracteriza as

matrizes invertíveis.

Teorema 2.1.6. Para uma matriz quadrada A de ordem n, são equivalentes

as seguintes a�rmações:

(i) A é invertível;

Page 39: MA33 - Introdução à Álgebra Linear

38CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS

(ii) Se B é uma matriz na forma escalonada equivalente a A, então B = In;

(iii) A é uma matriz elementar ou um produto de matrizes elementares.

Demonstração Vamos começar provando a implicação (i) ⇒ (ii). Com

efeito, como B é equivalente a A, pelo Corolário 2.1.4, existem matrizes

elementares E1, E2, . . . , Es tais que

Es · · ·E2 E1 A = B.

Como, pelo Corolário 2.1.5, cada Ei é invertível e A, por hipótese, é inver-

tível, temos que B é invertível (cf. Proposição 1.2.4). Por outro lado, pelo

Problema 1.7, temos que B = In.

A implicação (ii) ⇒ (iii) é evidente, já que A = E−11 E−12 · · ·E−1s B, onde

B = In e cada E−1i é uma matriz elementar (cf. Corolário 2.1.5).

A implicação (iii) ⇒ (i) é evidente, pois matrizes elementares são invertíveis

e produtos de matrizes invertíveis são invertíveis (cf. Proposição 1.2.4). �

Observe, como decorrência do resultado acima, que uma matriz quadrada

invertível é equivalente a uma única matriz na forma escalonada (a matriz

identidade), �cando estabelecida, neste caso, a unicidade da forma escalo-

nada.

Finalizamos esta seção apresentando um método para inversão de matri-

zes por meio de transformações elementares.

Proposição 2.1.7. Sejam A uma matriz invertível e e1, . . . , es uma sequên-

cia de transformações elementares tais que es(. . . (e2(e1(A))) . . . ) = I, onde

I é a matriz identidade. Então essa mesma sequência de transformações

elementares aplicada a I produz A−1; isto é, es(. . . (e2(e1(I))) . . . ) = A−1.

Demonstração Para cada 1 ≤ i ≤ s, seja Ei a matriz elementar corres-

pondente à transformação ei . Então

Es · · ·E2 E1 A = I .

Assim,

(Es · · ·E2 E1 I)A A−1 = I A−1,

Page 40: MA33 - Introdução à Álgebra Linear

1. TRANSFORMAÇÃO DE MATRIZES 39

donde

Es · · ·E2 E1 I = A−1.

Para ilustrarmos o uso do Teorema 2.1.6 e da Proposição 2.1.7, conside-

remos a matriz

A =

1 0 2

2 −1 3

4 1 8

.

Se aplicarmos uma sequência de transformações elementares em A até obter-

mos uma matriz B na forma escalonada, pelo Teorema 2.1.6, A é invertível

se, e somente se, B = I3 . Se B = I3 , pela Proposição 2.1.7, essa mesma

sequência de transformações elementares aplicada a I3 resultará em A−1. As-

sim, vamos formar a matriz em blocos[A | I3

]e vamos reduzir esta matriz

3× 6 a uma matriz na forma escalonada. De fato,

[A | I3

]=

1 0 2 | 1 0 0

2 −1 3 | 0 1 0

4 1 8 | 0 0 1

−→L2 → L2 − 2L1

L3 → L3 − 4L1

1 0 2 | 1 0 0

0 −1 −1 | −2 1 0

0 1 0 | −4 0 1

−→L2 → −L2

1 0 2 | 1 0 0

0 1 1 | 2 −1 0

0 1 0 | −4 0 1

−→L3 → L3 − L2

1 0 2 | 1 0 0

0 1 1 | 2 −1 0

0 0 −1 | −6 1 1

−→

L3 → −L3

1 0 2 | 1 0 0

0 1 1 | 2 −1 0

0 0 1 | 6 −1 −1

−→L1 → L1 − 2L3

L2 → L2 − L3

1 0 0 | −11 2 2

0 1 0 | −4 0 1

0 0 1 | 6 −1 −1

.

Como obtemos uma matriz na forma[I3 |C

], temos que A é invertível e

C = A−1. Assim,

A−1 =

−11 2 2

−4 0 1

6 −1 −1

.

Page 41: MA33 - Introdução à Álgebra Linear

40CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS

Consideremos agora a matriz

A =

1 0 1

0 2 1

3 0 3

.

Ao reduzirmos a matriz em blocos[A | I3

]a uma matriz na forma esca-

lonada, obtemos a matriz[B | C

], onde B =

1 0 1

0 1 1/2

0 0 0

e, portanto,

diferente de I3 . Logo, A não é invertível por ser equivalente a uma matriz

com uma linha nula (cf. Problema 1.7).

Problemas

1.1* Seja A =

[2 1

−1 3

].

(a) Obtenha a forma escalonada de A.

(b) A é invertível? Justi�que.

(c) Se A for invertível, escreva a matriz A−1 como um produto de matrizes

elementares.

1.2 Determine a matriz inversa de cada uma das matrizes dadas:

(a) A =

[12 7

5 3

];

(b) B =

−2 3 −11 −3 1

−1 2 −1

;

(c) C =

−2 −1 0 2

3 1 −2 −2−4 −1 2 3

3 1 −1 −2

.1.3 Demonstre o Teorema 2.1.3.

Page 42: MA33 - Introdução à Álgebra Linear

1. TRANSFORMAÇÃO DE MATRIZES 41

1.4 Determine a forma escalonada das matrizes:

(a) A =

0 1 3 −22 1 −4 3

2 3 2 −1

; (b) B =

1 2 −1 2 1

2 4 1 −2 3

3 6 2 −6 5

;

(c) C =

1 3 −1 2

0 11 −5 3

2 −5 3 1

4 1 1 5

.1.5 Uma certa sequência de transformações elementares aplicadas a uma

matriz A produz uma matriz B. A mesma sequência aplicada a AB produzirá

que matriz? Justi�que sua resposta.

1.6 Descreva todas as possíveis matrizes 2×2 que estão na forma escalonada.

1.7 Seja A uma matriz quadrada na forma escalonada. Mostre que são

equivalentes as seguintes asserções:

(a) A matriz A não tem linhas nulas.

(b) A é a matriz identidade.

(c) A é invertível.

Sugestão Use o Problema 2.13(c), do Capítulo 1.

1.8* Sejam A e B matrizes quadradas de mesma ordem.

(a) Mostre que, se AB = I, então A é invertível e A−1 = B. Assim AB = I

se, e somente se, BA = I.

(b) Mostre que AB é invertível se, e somente se A e B são invertíveis.

Por de�nição, uma matriz quadrada A é invertível quando existe uma

matriz quadrada B tal que AB = I e BA = I. No entanto, pelo problema

acima, no contexto das matrizes quadradas, basta encontrar B tal que AB = I

ou tal que BA = I para que A seja invertível. Ou seja, se uma das duas

igualdades é satisfeita, então a outra é automaticamente satisfeita .

1.9 Sejam E1, E2 e E3 as matrizes elementares de ordem n obtidas da identi-

dade pelas transformações elementares Li ↔ Lj, Li → Li + kLj e Li → cLi,

Page 43: MA33 - Introdução à Álgebra Linear

42CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS

onde j 6= i, respectivamente. Mostre que Et1 = E1, Et

2 = E ′2 e Et3 = E3,

onde E ′2 é a matriz elementar obtida da identidade mediante a transforma-

ção Lj → Lj + kLi.

2 Resolução de Sistemas Lineares

Finalmente, nesta seção, poremos em funcionamento a maquinária desen-

volvida com as matrizes para a resolução de sistemas de equações lineares,

culminando com o Teorema do Posto. Trata-se de um resultado central

dessa teoria que descreve a resolubidade dos sistemas de equações lineares

gerais. Este teorema é também conhecido no Ensino Médio como Teorema de

Rouché-Capelli, em homenagem aos matemáticos Eugène Rouché (França,

1832�1919) e Alfredo Capelli (Itália, 1855�1910).

Quanto a suas soluções, um sistema linear se classi�ca como impossí-

vel, ou possível e determinado, ou possível e indeterminado. Um sistema

linear é chamado impossível , quando não tem solução, possível e determi-

nado, quando tem uma única solução e possível e indeterminado , quando

tem mais de uma solução. .

Já foi observado anteriormente que um sistema linear homogêneo com n

incógnitas é sempre possível, pois admite como solução a n-upla (0, 0, . . . , 0),

Page 44: MA33 - Introdução à Álgebra Linear

2. RESOLUÇÃO DE SISTEMAS LINEARES 43

chamada solução trivial . Qualquer outra solução, se existir, é dita solução

não trivial do sistema.

Dado um sistema linear AX = B, o sistema linear AX = 0 é chamado

de sistema linear homogêneo associado . A relação fundamental entre um

sistema linear e seu sistema linear homogêneo associado é apresentada na

proposição a seguir.

Proposição 2.2.1. Seja AX = B um sistema linear. Suponhamos que X1

seja uma solução do sistema AX = B e que Sh seja o conjunto solução do

sistema linear homogêneo associado AX = 0. Então

S = {X1 + Z ; Z ∈ Sh} (1)

é o conjunto solução do sistema AX = B.

Demonstração Para demonstrarmos (1), usaremos algumas propriedades

já vistas da adição e da multiplicação por escalar de matrizes.

De fato, se X2 ∈ S, podemos escrever X2 = X1 + Z com Z ∈ Sh. Como

X1 é uma solução particular de AX = B e Z ∈ Sh, segue que AX1 = B e

AZ = 0. Logo,

AX2 = A(X1 + Z) = AX1 + AZ = B + 0 = B,

mostrando que X2 é uma solução do sistema AX = B.

Por outro lado, tomemos uma solução X2 do sistema AX = B e de�na-

mos Z = X2 −X1. Temos, então, que

AZ = A(X2 −X1) = AX2 − AX1 = B −B = 0;

logo Z = X2 −X1 ∈ Sh. Portanto, X2 = X1 + Z ∈ S. �

Observamos que o resultado acima é apenas de interesse teórico, pois não

nos ajuda a obter o conjunto solução de um sistema linear. Um método bem

e�caz para se resolver um sistema linear é o método do escalonamento . Este

consiste em se tomar a matriz ampliada de um sistema linear e aplicar uma

sequência de transformações elementares a esta matriz, de modo a obtermos

Page 45: MA33 - Introdução à Álgebra Linear

44CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS

uma matriz equivalente que seja a matriz ampliada de um sistema linear

�fácil� de se resolver.

Exemplo 1. Resolvamos o sistema linearx+ y − 2z + 3w = 4

2x+ 3y + 3z − w = 3

5x+ 7y + 4z + w = 5 .

(2)

Observemos que1 1 −2 3 | 4

2 3 3 −1 | 3

5 7 4 1 | 5

−→L2 → L2 − 2L1

L3 → L3 − 5L1

1 1 −2 3 | 4

0 1 7 −7 | −50 2 14 −14 | −15

−→L3 → L3 − 2L2

1 1 −2 3 | 4

0 1 7 −7 | −50 0 0 0 | −5

,

(3)

sendo que esta última matriz é a matriz ampliada do sistema linearx+ y − 2z + 3w = 4

y + 7z − 7w = −5

0x+ 0y + 0z + 0w = −5 .

(4)

Note que o sistema (4) é impossível. A pergunta que fazemos é: qual

a relação do sistema (4) com o originalmente proposto? A resposta é que

eles têm o mesmo conjunto solução, já que (2) e (4) têm matrizes ampliadas

equivalentes. Mais precisamente, temos o resultado a seguir.

Proposição 2.2.2. Dois sistemas lineares com matrizes ampliadas equiva-

lentes têm o mesmo conjunto solução .

Demonstração É só lembrar que efetuar transformações elementares sobre

as linhas da matriz ampliada do sistema, equivale a efetuar transformações

elementares no sistema de equações, obtendo um sistema equivalente. �

Page 46: MA33 - Introdução à Álgebra Linear

2. RESOLUÇÃO DE SISTEMAS LINEARES 45

A matriz ampliada do sistema linear (2) poderia ter sido reduzida por

linhas a uma matriz na forma escalonada. Porém, a equação

0x+ 0y + 0z + 0w = −5obtida da última linha da matriz �nal em (3) já garante, pela Proposição

2.2.2, que o sistema (2) é impossível. De fato, dado um sistema linear nas in-

cógnitas x1, x2, . . . , xn, se após uma sequência de transformações elementares

ocorrer uma equação da forma

0x1 + 0x2 + · · ·+ 0xn = b, com b 6= 0,

então o sistema é impossível; ou seja, não tem solução.

Quando aplicarmos a Proposição 2.2.2 a um sistema homogêneo não é ne-

cessário tomar a matriz ampliada, basta considerar a matriz dos coe�cientes

do sistema.

Exemplo 2. Determinemos o conjunto solução do sistema linear homogêneox+ 2y + 3z − 5w = 0

2x+ 4y + z + 2w = 0

x+ 3y + 4z = 0

3x+ 5y + 8z − 10w = 0.

Ora, basta considerarmos a matriz dos coe�cientes do sistema. Assim,

1 2 3 −52 4 1 2

1 3 4 0

3 5 8 −10

−→

L2 → L2 − 2L1

L3 → L3 − L1

L4 → L4 − 3L1

1 2 3 −50 0 −5 12

0 1 1 5

0 −1 −1 5

−→L4 → L4 + L3

1 2 3 −50 0 −5 12

0 1 1 5

0 0 0 10

,

sendo esta última matriz, a matriz dos coe�cientes do sistema linear homo-

gêneo x+ 2y + 3z − 5w = 0

−5z + 12w = 0

y + z + 5w = 0

10w = 0,

Page 47: MA33 - Introdução à Álgebra Linear

46CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS

que admite apenas a solução (0, 0, 0, 0). Assim, o conjunto solução do sistema

originalmente dado é S = {(0, 0, 0, 0)}.

Para apresentarmos o resultado central deste capítulo, necessitaremos de

alguns resultados que estabeleceremos a seguir.

Lema 2.2.3. Seja dada uma matriz A = [A′ | A′′] na forma escalonada, onde

A′ é uma matriz m× (n− 1) e A′′ é uma matriz m× 1. Sejam k1, . . . , kp as

posições das colunas de A onde ocorrem os primeiros elementos não nulos das

linhas não nulas L1, . . . , Lp, respectivamente. O sistema A′X = A′′ admite

solução se, e somente se, kp 6= n.

Demonstração Observe que como A está na forma escalonada, a matriz

A′ também está na forma escalonada.

Se kp = n, então a p-ésima linha da matriz A é (0 0 · · · 0 1). Assim,

o sistema A′X = A′′ tem uma equação da forma 0x1 + · · · + 0xn−1 = 1, que

não tem solução.

Se kp 6= n, temos que p ≤ kp < n. Assim, se os ai's são as entradas de

A′′, temos que ap+1 = · · · = am = 0. Se denotarmos por Ai a i-ésima coluna

da matriz A, temos que

A′k1 = Ak1 =

1

0...

0...

0

, A′k2 = Ak2 =

0

1...

0...

0

, . . . , A′kp = Akp =

0

0...

1...

0

,

onde cada matriz acima tem as últimas m − r entradas nulas. O sistema

A′X = A′′ se escreve, em blocos, da seguinte forma:

a = [A1 | A2 | . . . | An−1]X = A1x1 + A2x2 + · · ·+ An−1xn−1.

Para achar uma solução do sistema basta tomar xki = ai e xj = 0, se j 6= ki,

para todo i = 1, . . . , p. �

Page 48: MA33 - Introdução à Álgebra Linear

2. RESOLUÇÃO DE SISTEMAS LINEARES 47

A seguir, daremos a prova da unicidade da forma escalonada de uma

matriz.

Teorema 2.2.4. (Unicidade da forma escalonada) Existe uma única

matriz na forma escalonada equivalente por linhas a uma dada matriz.

Demonstração Basta mostrar que dadas duas matrizes A e B na forma

escalonada e equivalentes por linhas, então A = B (justi�que). O resultado

será provado por indução sobre o número n de colunas da matriz. Para n = 1,

as únicas matrizes na forma escalonada são0

0...

0

e

1

0...

0

.

Como qualquer transformação aplicada às linhas da primeira matriz não a

altera, as duas matrizes acima não são equivalentes, daí decorre a unicidade,

nesse caso.

Admitamos o resultado verdadeiro para matrizes com n−1 colunas, onde

n ≥ 2. Sejam A e B duas matrizes m × n, ambas na forma escalonada e

equivalentes. Escrevamos A = [A′ | A′′] e B = [B′ | B′′], onde A′ e B′ são os

blocos formados com as n− 1 colunas de A e de B, e A′′ e B′′ são as últimas

colunas de A e de B, respectivamente. É imediato veri�car pela de�nição

que A′ e B′ estão na forma escalonada; e que A′ é equivalente a B′, pois as

mesmas operações elementares que transformam A em B, transformam A′

em B′. Portanto, pela hipótese de indução, temos que A′ = B′. Estamos

então reduzidos a duas matrizes A = [A′ | A′′] e B = [A′ | B′′] na forma

escalonada e equivalentes. Vamos desdobrar a nossa análise em dois casos.

Caso 1) A matriz A é tal que kp = n. Assim, a matriz A′ tem as primeiras

p − 1 linhas não nulas e a p-ésima linha nula e as entradas ai de A′′ são

tais que ai = 0, se i 6= p e ap = 1. Pelo Lema 2.2.3, o sistema A′X = A′′

não tem solução. Como as matrizes A = [A′ | A′′] e B = [A′ | B′′] sãoequivalentes, pela Proposição 2.2.2, os sistemas A′X = A′′ e A′X = B′′

Page 49: MA33 - Introdução à Álgebra Linear

48CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS

são também equivalentes, o que implica que o segundo sistema também não

admite solução. Aplicando novamente o Lema 2.2.3 ao sistema A′X = B′′,

temos que bp = 1 e bi = 0, se i 6= p, o que nos diz que A′′ = B′′.

Caso 2) A matriz A é tal que kp 6= n. Pelo Lema 2.2.3 tem-se que o sistema

A′X = A′′ tem uma solução X0. Como os sistemas são equivalentes, temos

que X0 é solução do sistema A′X = B′′, logo A′′ = A′X0 = B′′. �

A demonstração do Teorema 2.2.4, acima, foi inspirada em [1], o qual

recomendamos para estudos mais avançados de Álgebra Linear.

Seja A uma matriz de ordem m×n. Pelo Teorema 2.2.4, A é equivalente

a uma única matriz A, de ordem m×n, na forma escalonada. Dizemos que A

é a forma escalonada de A. Portanto, faz sentido de�nir o posto p da matriz

A como o número de linhas não nulas de sua forma escalonada A.

Por exemplo, se

A =

1 2 1 0

−1 0 3 5

1 −2 1 1

,

sua forma escalonada é a matriz

A =

1 0 0 −7/80 1 0 −1/40 0 1 11/8

.

Portanto, o posto p de A é igual a 3, pois o número de linhas não nulas de

A é 3.

Para matrizes quadradas temos o seguinte resultado:

Corolário 2.2.5. Uma matriz quadrada de ordem n é invertível se, e so-

mente se, ela tem posto n.

Demonstração Se a matriz é invertível, então pelo Teorema 2.1.6, sua

forma escalonada é In, logo tem posto n.

Reciprocamente, seja dada uma matriz quadrada de ordem n e seja A sua

forma escalonada. Se A tem posto n, então A não tem linhas nulas, logo,

Page 50: MA33 - Introdução à Álgebra Linear

2. RESOLUÇÃO DE SISTEMAS LINEARES 49

pelo Problema 1.7, A = In. Pelo Corolário 2.1.4, temos que

A = Es . . . E1A = Es . . . E1,

onde E1, . . . , Es são matrizes elementares, logo invertíveis (cf. Corolário

2.1.5). Daí decorre que A é invertível por ser produto de matrizes inver-

tíveis (cf. Proposição 1.2.4(ii)). �

Observe que o Lema 2.2.3 pode ser reinterpretado com a noção de posto

do seguinte modo:

Um sistema de equações lineares AX = B admite solução se, e somente

se, o posto da matriz aumentada [A | B] do sistema tiver posto igual ao da

matriz A do sistema.

De fato, o que mostramos foi que o sistema possui solução se, e somente se,

a última linha não nula da forma escalonada da matriz ampliada do sistema

não for da forma (0 0 . . . 0 1).

Isto é parte do Teorema de Rouché-Capelli, resultado central deste capí-

tulo e que apresentamos na íntegra a seguir.

Teorema 2.2.6. (Teorema do Posto) Consideremos um sistema linear

com m equações e n incógnitas AX = B. Sejam pAB o posto da matriz

ampliada do sistema e pA o posto da matriz dos coe�cientes do sistema.

Então

(i) O sistema é possível se, e somente se, pAB = pA.

(ii) O sistema é possível e determinado se pAB = pA = n.

(iii) O sistema é possível e indeterminado se pAB = pA < n. Neste caso,

n− pA é o número de incógnitas livres do sistema, ou seja, incógnitas

que podem assumir qualquer valor real.

Demonstração Seja AX = B um sistema linear com n incógnitas. Seja

C = [A | B] a matriz ampliada do sistema e seja C = [A | B] a forma

escalonada de C. Denotaremos A = [aij] e B = [bi].

Page 51: MA33 - Introdução à Álgebra Linear

50CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS

Claramente A é a forma escalonada de A e como A é um bloco de C,

temos que

pA = pA < pC = pAB ou pA = pA = pC = pAB.

Vamos considerar os dois casos anteriores separadamente.

Caso 1. Se pA < pAB, então C tem uma linha do tipo

(0 · · · 0 0 1).

Portanto, o sistema AX = B é impossível e, então, pela Proposição 2.2.2,

AX = B é impossível.

Caso 2. Se pA = pAB, então C e A têm o mesmo número de linhas não

nulas.

Dividiremos este caso em dois subcasos.

Subcaso 2.1. pAB = pA = n.

Sendo A uma matriz com n colunas, com pA = pA = n, e estando A na

forma escalonada, ela é uma matriz em blocos da forma

A =

[In

0

].

Como pA = pAB = n, segue que B é tal que bn+1 = · · · = bm = 0.

Portanto, AX = B é possível e determinado com a única solução x1 =

b1, . . . , xn = bn. Consequentemente, AX = B também é determinado com

mesma solução.

Subcaso 2.2. pA = pAB < n.

Ponhamos p = pA = pAB. Neste caso, A (assim como C) tem p linhas

não nulas L1, . . . , Lp, tais que o primeiro elemento não nulo de Li está na

coluna ki e k1 < · · · < kp. Além disso, temos bp+1 = · · · = bm = 0.

Page 52: MA33 - Introdução à Álgebra Linear

2. RESOLUÇÃO DE SISTEMAS LINEARES 51

Temos então que a equação AX = B se escreve como

xk1 + a1k1+1xk1+1 + · · ·+ a1nxn

xk2 + a2k2+1xk2+1 + · · ·+ a2nxn

...

xkp + apkp+1xkp+1 + · · ·+ apnxn

0...

0

=

b1

b2...

bp

0...

0

.

A igualdade matricial acima, juntamente com o fato da matriz A estar na

forma escalonada, nos fornece o sistema de equações

xk1 = −∑

j>k1a1jxj + b1, onde a1ki = 0, se i > 1,

xk2 = −∑

j>k2a2jxj + b2, onde a2ki = 0, se i > 2,

. . .

xkp−1 = −∑

j>kp−1ap−1,jxj + bp−1, onde ap−1,ki = 0, se i = kp,

xkp = −∑

j>kpapjxj + bp.

Isto mostra que podemos escolher arbitrariamente valores para as incó-

gnitas no conjunto

{x1, . . . , xn} \ {xk1 , . . . , xkp} (5)

e com esses determinar valores para xk1 , . . . , xkp .

Como o conjunto em (5) tem n − p elementos, o sistema AX = B tem

n− p incógnitas livres e, consequentemente, o mesmo ocorre para o sistema

AX = B. �

Particularizando o Teorema do Posto para os sistemas homogêneos, ob-

temos o corolário a seguir.

Corolário 2.2.7. Seja dado um sistema linear homogêneo com m equações

e n incógnitas AX = 0.

(i) Se A tem posto n, então o sistema possui apenas a solução nula. Em

particular, isto ocorre quando m = n e A é invertível.

Page 53: MA33 - Introdução à Álgebra Linear

52CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS

(ii) Se A tem posto p < n, então o sistema possui in�nitas soluções. Em

particular, isto sempre ocorre quando m < n.

A seguir, daremos um exemplo da aplicação do Teorema do Posto.

Exemplo 3. Com o auxílio do Teorema do Posto, resolvamos o sistema

linear x+ 2y − 2z + 3w = 2

2x+ 4y − 3z + 4w = 5

5x+ 10y − 8z + 11w = 12 .

Ora, 1 2 −2 3 | 2

2 4 −3 4 | 5

5 10 −8 11 | 12

−→L2 → L2 − 2L1

L3 → L3 − 5L1

1 2 −2 3 | 2

0 0 1 −2 | 1

0 0 2 −4 | 2

−→

L1 → L1 + 2L2

L3 → L3 − 2L2

1 2 0 −1 | 4

0 0 1 −2 | 1

0 0 0 0 | 0

.

Como pAB = pA = 2 < 4 = n, onde n é o número de incógnitas do sistema,

o sistema linear é possível e indeterminado. Existem então duas incógnitas

livres, digamos y e w, às quais podemos atribuir quaisquer valores reais a e

b, respectivamente. Assim, temos y = a e w = b. Substituindo w = b na

segunda equação obtemos z = 1 + 2b. Pondo y = a, z = 1 + 2b e w = b

na primeira equação, segue-se que x = 4 − 2a + b. Portanto, as soluções do

sistema são os elementos do conjunto

{(4− 2a+ b, a, 1 + 2b, b) ; a, b ∈ R}.

Observamos que, pelo Teorema do Posto, o número de incógnitas livres

está bem determinado. Porém, as incógnitas livres podem ser escolhidas com

alguma liberdade. No exemplo anterior, escolhemos y e w como incógnitas

livres, mas, poderíamos ter escolhido x e t como incógnitas livres.

Page 54: MA33 - Introdução à Álgebra Linear

2. RESOLUÇÃO DE SISTEMAS LINEARES 53

Problemas

2.1* Resolva o sistema linear homogêneoy + 3z − 2t = 0

2x+ y − 4z + 3t = 0

2x+ 3y + 2z − t = 0

−4x− 3y + 5z − 4t = 0 .

2.2* Que condições devem ser impostas a m,n e p para que o sistema linearx+ 2y − 3z = m

2x+ 6y − 11z = n

x− 2y + 7z = p

tenha solução?

2.3 Determine X tal que AX −B = C, onde

A =

[1 3

1 4

], B =

[2 2 −13 0 1

]e C =

[8 4 3

10 8 2

].

2.4 Resolva o sistema linear1 2 1

3 1 −24 −3 −12 4 2

xyz

=

2

1

3

4

.

2.5 Dadas as matrizes

A =

1 2 1 0

−1 0 3 5

1 −2 1 1

, B1 =

210

e B2 =

121

,

resolva:

Page 55: MA33 - Introdução à Álgebra Linear

54CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS

(a) os sistemas AX = B1 e AX = B2;

(b) o sistema AX = 3B1−B2, utilizando soluções particulares já encontradas

no item (a).

2.6 Dada uma matriz A de ordem m× n, raciocine com a forma escalonada

para mostrar que:

(a) a equação AC = I pode ser resolvida ⇔ o sistema linear AX = B tem

solução para qualquer B ⇔ posto de A é m;

(b) a equação CA = I pode ser resolvida ⇔ o sistema linear AX = 0 tem

solução única ⇔ posto de A é n.

2.7 Na matriz A de ordem 5× 5 temos a seguinte relação entre as linhas:

L1 + L2 − 2L4 + 3L5 = 0.

Encontre uma matriz C, de posto 3, tal que CA tenha linhas L1, L4, 0.

2.8 Como devem ser escolhidos os coe�cientes a, b e c para que o sistemaax+ by − 3z = −3

−2x− by + cz = −1

ax+ 3y − cz = −3

tenha a solução x = 1, y = −1 e z = 2?

2.9 Determine os valores de k ∈ R para que os sistemas abaixo

(a)

x+ y + kz = 2

3x+ 4y + 2z = k

2x+ 3y − z = 1

, (b)

kx+ y + z = 1

x+ ky + z = 1

x+ y + kz = 1

, (c)

x+ kz = 0

y = 0

kx+ z = 0

tenham:

(i) solução única;

(ii) nenhuma solução;

(iii) mais de uma solução.

Determine a solução do sistema quando esta existir.

Page 56: MA33 - Introdução à Álgebra Linear

2. RESOLUÇÃO DE SISTEMAS LINEARES 55

2.10 Que condições devem ser impostas a a, b e c para que o sistema abaixo

nas incógnitas x, y e z tenha solução?x+ 2y − 3z = a

2x+ 6y − 11z = b

x− 2y + 7z = c .

2.11 Determine os valores de a, de modo que o seguinte sistema nas incógni-

tas x, y e z tenha: (a) nenhuma solução, (b) mais de uma solução, (c) uma

única solução: x+ y − z = 1

2x+ 3y + az = 3

x+ ay + 3z = 2 .

2.12 Considere o sistema linear 2× 2 nas incógnitas x e y:ax+ by = e

cx+ dy = f.

Mostre que:

(a) sea

c6= b

d, isto é, se ad− bc 6= 0, então o sistema tem solução única

x =de− bf

ad− bce y =

af − ce

ad− bc;

(b) sea

c=

b

d6= e

f, então o sistema não tem solução;

(c) sea

c=

b

d=

e

f, então o sistema tem mais de uma solução.

2.13 Suponha que, num sistema linear homogêneo, os coe�cientes de uma

das incógnitas são todos iguais a zero. Mostre que o sistema tem solução não

nula.

Page 57: MA33 - Introdução à Álgebra Linear

56CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS

2.14 Seja A uma matriz quadrada de ordem n. Prove que as seguintes

a�rmações são equivalentes:

(a) A é invertível;

(b) O sistema linear homogêneo AX = 0 só admite a solução trivial;

(c) Para toda matriz B de ordem n× 1, o sistema linear AX = B é possível

e determinado.

Page 58: MA33 - Introdução à Álgebra Linear

Bibliogra�a

[1] H. P. Bueno, Álgebra Linear, um segundo curso , Coleção Textos Univer-

sitários, SBM, 2006.

[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,

2001.

[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-

mática e Aplicações, IMPA, 2008.

[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção

PROFMAT, SBM, 2012.

[5] V. J. Katz, A History of Mathematics - an Introduction , HarperCollins

College Publishers, 1993.

[6] S. Lang, Introduction to Linear Algebra , 2nd edition, Undergraduate Texts

in Mathematics, Springer, 1986.

[7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária,

IMPA, 1998.

[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção

Matemática Universitária, IMPA, 2010.

300

Page 59: MA33 - Introdução à Álgebra Linear

3

57

Livro: Introdução à Álgebra LinearAutores: Abramo Hefez

Cecília de Souza Fernandez

Capítulo 3: Espaços Vetoriais

Sumário

1 Subespaços Vetoriais . . . . . . . . . . . . . . . . . 58

1.1 Caracterização dos Subespaços Vetoriais . . . . . . 58

1.2 Operações com Subespaços . . . . . . . . . . . . . 61

1.3 Subespaços Gerados . . . . . . . . . . . . . . . . . 63

2 Dependência e Independência Linear . . . . . . . . 69

3 Bases e Dimensão . . . . . . . . . . . . . . . . . . . 75

3.1 Bases . . . . . . . . . . . . . . . . . . . . . . . . . 75

3.2 Dimensão . . . . . . . . . . . . . . . . . . . . . . . 82

4 Espaço Linha de uma Matriz . . . . . . . . . . . . 86

Page 60: MA33 - Introdução à Álgebra Linear

58 CAPÍTULO 3. ESPAÇOS VETORIAIS

Neste capítulo, desenvolveremos o conceito de espaço vetorial que intro-

duzimos no Capítulo 1. Intimamente associadas à noção de espaço vetorial

estão as noções de subespaço vetorial, de base e de dimensão, conceitos esses

fundamentais que introduziremos neste capítulo e que nos permitirão enten-

der melhor a estrututa desses espaços. A estrutura de espaço vetorial está

presente em espaços importantes da Análise Matemática e da Geometria Di-

ferencial, como os espaços de Banach e os espaços de Hilbert, que possuem

muitas aplicações na Física moderna, entre outros.

Neste texto enfatizaremos os espaços vetoriais sobre o corpo R dos nú-

meros reais. Apesar do fato de muitos dos resultados que obteremos serem

válidos no contexto mais geral dos espaços vetoriais sobre corpos abitrários,

nos restringiremos aos espaços vetoriais reais.

1 Subespaços Vetoriais

Na Subseção 1.3 do Capítulo 1, vimos que o conjunto solução Sh de

um sistema de equações lineares homogêneo com n incógnitas forma um

espaço vetorial contido no espaço Rn. Esta é uma situação típica da noção

de subespaço de um espaço vetorial, que de�niremos a seguir com maior

generalidade.

1.1 Caracterização dos Subespaços Vetoriais

Sejam V um espaço vetorial e W um subconjunto não vazio de V . Dize-

mos que W é um subespaço vetorial de V , ou simplesmente um subespaço de

V , se W , com as operações de adição em V e de multiplicação de vetores de

V por escalares, é um espaço vetorial.

Para mostrar que um subconjunto não vazio W de V é um subespaço

de V é preciso inicialmente veri�car se as operações de adição de vetores e

de multiplicação de vetores por escalares em V estão de�nidas em W . Em

seguida, seria necessário veri�car as propriedades A1�A4 e ME1�ME4 da

de�nição de espaço vetorial que demos na Subseção 1.2 do Capítulo 1. No

Page 61: MA33 - Introdução à Álgebra Linear

1. SUBESPAÇOS VETORIAIS 59

entanto, como W é parte de V , que já sabemos ser um espaço vetorial, então

algumas das propriedades anteriores não precisam ser testadas em W . Por

exemplo, não precisamos testar se a adição em W é associativa nem se é

comutativa, pois essas propriedades são satisfeitas por todos os elementos de

V e, consequentemente, por todos os elementos de W . Pelo mesmo motivo, as

condições ME1�ME4 não precisam ser testadas em W . Assim, para mostrar

que um subconjunto não vazio W de V é um subespaço de um espaço vetorial

V , precisaremos somente veri�car se A3 e A4 são satisfeitas. O resultado

a seguir mostra que, de fato, basta mostrar que as operações de V estão

de�nidas em W .

Proposição 3.1.1. Sejam V um espaço vetorial e W um subconjunto não

vazio de V . Então, W é um subespaço de V se, e somente se, as seguintes

condições são satisfeitas:

(i) se u, v ∈ W , então u+ v ∈ W ;

(ii) se a ∈ R e u ∈ W , então au ∈ W .

Demonstração Se W é um subespaço de V , então claramente as condições

(i) e (ii) são veri�cadas.

Reciprocamente, suponhamos que W possua as propriedades (i) e (ii).

Para mostrar que W é subespaço de V , precisamos somente veri�car que

os elementos de W possuem as propriedades A3 e A4. Tome um elemento

qualquer u de W , o que é possível pois W 6= ∅. Pela condição (ii), au ∈ Wpara todo a ∈ R. Tomando a = 0, segue-se que 0u = 0 ∈ W e, tomando

a = −1, segue-se que (−1)u = −u ∈ W . �

A Proposição 3.1.1 a�rma que um subconjunto não vazio de um espaço

vetorial V é um subespaço de V se, e somente se, a adição e a multiplicação

por escalar são fechadas em W . A Proposição 3.1.1 pode ser reescrita da

seguinte forma:

Corolário 3.1.2. Sejam V um espaço vetorial e W um subconjunto não

vazio de V . Temos que W é um subespaço vetorial de V se, e somente se,

u+ av ∈ W , para todo a ∈ R e para todos u, v ∈ W .

Page 62: MA33 - Introdução à Álgebra Linear

60 CAPÍTULO 3. ESPAÇOS VETORIAIS

A demonstração do resultado anterior é deixada para o leitor (veja Pro-

blema 1.1). Vejamos agora alguns exemplos de subespaços vetoriais.

Exemplo 1. Seja V um espaço vetorial. Então o conjunto {0}, constituídoapenas do vetor nulo, e também todo o espaço V são subespaços de V . O

conjunto {0} é chamado de espaço vetorial nulo .

Exemplo 2. Seja V = Rn e sejam i1, i2, . . . , ir números naturais tais que

0 < i1 < i2 < · · · < ir ≤ n. O conjunto

W = {(x1, x2, . . . , xn) ; xi1 = xi2 = · · · = xir = 0}

é um subespaço vetorial de Rn. Em particular, W1 = {(0, y, z) ; y, z ∈ R} eW2 = {(0, y, 0) ; y ∈ R} são subespaços vetoriais de R3.

Exemplo 3. Na Subseção 1.3 do Capítulo 1, vimos que o conjunto solução

Sh de um sistema de equações lineares homogêneas em n incógnitas forma

um subespaço vetorial de Rn. Os subespaços do Exemplo 2 podem ser vistos

sob esta ótica, pois o subespaço W , do referido exemplo, pode ser descrito

como o espaço solução do sistema de equações lineares homogêneas

xi1 = xi2 = · · · = xir = 0.

Exemplo 4. No espaço vetorial das matrizesM(n, n), os conjuntos das ma-

trizes triangulares superiores, triangulares inferiores e das matrizes diagonais,

são subespaços vetoriais.

Exemplo 5. No espaço vetorial S das sequências reais, as recorrências line-

ares do tipo R(a, b) (cf. Exemplo 2, Seção 1, Capítulo 1) formam subespaços

vetoriais. Mais geralmente, o conjunto R(a1, a2, . . . , ar) das sequências quesão soluções da recorrência linear

un = a1un−1 + a2un−2 + · · ·+ arun−r

é um subespaço vetorial de S (veri�que).

Page 63: MA33 - Introdução à Álgebra Linear

1. SUBESPAÇOS VETORIAIS 61

1.2 Operações com Subespaços

Como, antes de mais nada, espaços vetoriais são conjuntos, é bastante

natural perguntar-se se a união e a interseção de conjuntos preservam a

propriedade de espaço vetorial.

Dados U = {(x, y) ∈ R2 ; x + y = 0} e W = {(x, y) ∈ R2 ; x − y = 0},subespaços de R2, o conjunto U ∪W não é um subespaço de R2. De fato,

temos que u = (1, 1) ∈ U ∪W e w = (1,−1) ∈ U ∪W , mas u+w = (2, 0) /∈U ∪W .

Este exemplo mostra que a união de dois subespaços de um espaço vetorial

V não é necessariamente um subespaço de V . A próxima proposição mostra

que a interseção de subespaços é sempre um subespaço.

Proposição 3.1.3. A interseção de dois subespaços de um espaço vetorial

V é um subespaço de V .

Demonstração Sejam U e W subespaços de V . Para veri�carmos que

U ∩W é também um subespaço de V , vamos fazer uso do Corolário 3.1.2

Para isto, primeiramente note que U ∩W é um subconjunto não vazio de

V , pois 0 ∈ U e 0 ∈ W , já que ambos U e W são subespaços de V . Agora,

tomemos a ∈ R e u, v ∈ U ∩ W . Como u, v ∈ U e u, v ∈ W , segue do

Corolário 3.1.2 que u + av ∈ U e u + av ∈ W , ou seja, u + av ∈ U ∩W .

Novamente, pelo Corolário 3.1.2, segue que U ∩W é um subespaço de V .�

Observemos que o principal problema quando consideramos a união de

subespaços é que se tomamos um vetor em cada subespaço, a soma deles

pode não pertencer à união. Seria, então, natural considerarmos o conjunto

soma de�nido a seguir.

Dados U e W subespaços de um espaço vetorial V , de�nimos a soma de

U e W , denotada por U +W , como o conjunto

U +W = {u+ w ; u ∈ U e w ∈ W}.

Com isto, quando somamos um elemento de um subespaço com um elemento

do outro, automaticamente, a soma destes elementos está na soma dos sub-

espaços.

Page 64: MA33 - Introdução à Álgebra Linear

62 CAPÍTULO 3. ESPAÇOS VETORIAIS

Como exemplo, consideremos U = {(x, y) ∈ R2 ; x + y = 0} e W =

{(x, y) ∈ R2 ; x − y = 0}. Temos que U +W = R2, e, consequentemente,

U +W é um subespaço de R2. De fato, se (x, y) ∈ R2 então

(x, y) =

(x− y2

,y − x2

)+

(x+ y

2,x+ y

2

),

o que mostra que todo elemento de R2 se escreve como a soma de um elemento

de U e um elemento de W . Este exemplo ilustra o resultado a seguir.

Proposição 3.1.4. A soma de dois subespaços U e W de um espaço vetorial

V é um subespaço de V . Este é o menor subespaço de V que contém cada

um dos subespaços, no sentido que se um subespaço vetorial L de V é tal que

U ⊂ L e W ⊂ L, então U +W ⊂ L.

Demonstração Sejam U e W subespaços de V . Tomemos a ∈ R e v1, v2 ∈U +W . Como v1, v2 ∈ U +W , existem u1 e u2 elementos de U e existem w1

e w2 elementos de W tais que

v1 = u1 + w1 e v2 = u2 + w2 .

Então,

v1 + av2 = (u1 + w1) + a(u2 + w2) = (u1 + au2) + (w1 + aw2) ∈ U +W .

Assim, provamos que U +W é um subespaço de V .

Para mostrar que U +W é o menor subespaço vetorial de V que contém

U e W , seja L um subespaço de V que contém U e W . Para todos u ∈ U e

w ∈ W , temos que u,w ∈ L, logo u + w ∈ L. Isto mostra que U +W ⊂ L.

Sejam U e W subespaços de um espaço vetorial V . O espaço vetorial

V é dito ser a soma direta de U e W , e representado por V = U ⊕W , se

V = U +W e U ∩W = {0}.Como exemplo de uma soma direta, consideremos novamente os subespa-

ços U = {(x, y) ∈ R2 ; x + y = 0} e W = {(x, y) ∈ R2 ; x − y = 0}. Vimos

anteriormente que R2 = U+W . Como U ∩W = {0}, segue que R2 = U⊕W .

O próximo resultado mostra uma importante propriedade das somas di-

retas.

Page 65: MA33 - Introdução à Álgebra Linear

1. SUBESPAÇOS VETORIAIS 63

Teorema 3.1.5. Sejam U e W subespaços de um espaço vetorial V . Temos

que V = U ⊕W se, e somente se, todo vetor v em V se escreve de modo

único como v = u+ w, onde u ∈ U e w ∈ W .

Demonstração Suponhamos V = U ⊕W . Tomemos v ∈ V . Como V =

U +W , pela de�nição de soma de subespaços, existem u ∈ U e w ∈ W tais

que

v = u+ w.

Vejamos que a decomposição acima é única no sentido de que se

v = u′ + w′,

com u′ ∈ U e w′ ∈ W , então u = u′ e w = w′. Ora, como v = u + w e

v = u′ + w′, então

u− u′ = −(w − w′).

Como o lado esquerdo pertence a U e o lado direito a W , da igualdade

anterior decorre que u−u′ ∈ U ∩W e w−w′ ∈ U ∩W . Como U ∩W = {0},segue então que u = u′ e w = w′. Reciprocamente, suponhamos que todo

vetor de V se escreve de modo único como a soma de um vetor de U e de

um vetor de W . Claramente, então, V = U +W . Se U ∩W 6= {0}, existiriaum vetor não nulo v em U ∩W . Como v ∈ W e W é um subespaço, então

−v ∈ W também. Consequentemente, teríamos 0 = 0 + 0, com 0 ∈ U e

0 ∈ W , e 0 = v + (−v), com v ∈ U e −v ∈ W . Como v 6= 0, teríamos duas

escritas distintas para um mesmo vetor de V . Como isto não ocorre, temos

de fato que U ∩W = {0}. �

1.3 Subespaços Gerados

Seja V um espaço vetorial e sejam v1, v2, . . . , vr vetores de V . Diremos

que um vetor v de V é uma combinação linear de v1, v2, . . . , vr se existirem

números reais a1, a2, . . . , ar tais que

v = a1v1 + a2v2 + · · ·+ arvr . (1)

Page 66: MA33 - Introdução à Álgebra Linear

64 CAPÍTULO 3. ESPAÇOS VETORIAIS

Por exemplo, o vetor (1, 6, 0) em R3 é uma combinação linear dos vetores

v1 = (1, 2, 0) e v2 = (−1, 2, 0), já que v = 2v1 + 1v2 . De fato, a equação

(1, 6, 0) = a1(1, 2, 0) + a2(−1, 2, 0)

equivale ao sistema de equações lineares{a1 − a2 = 1

2a1 + 2a2 = 6 ,

cuja solução é única e dada por a1 = 2 e a2 = 1. Já o vetor w = (2,−2, 6)não é uma combinação linear de v1 e v2 , pois não existem números reais a1e a2 tais que w = a1v1 + a2v2 . Com efeito, a equação

(2,−2, 6) = a1(1, 2, 0) + a2(−1, 2, 0)

equivale ao sistema de equações lineares

a1 − a2 = 2, 2a1 + 2a2 = −2, 0a1 + 0a2 = 6 ,

mostrando que o sistema é impossível.

Se r = 1 em (1), então v = a1v1 , ou seja, v é uma combinação linear de

um único vetor v1 se for um múltiplo por escalar de v1 .

Sejam v1, v2, . . . , vr vetores de um espaço vetorial V . Consideremos o

conjunto W de todas as combinações lineares de v1, v2, . . . , vr . O resultado

a seguir mostra que W é um subespaço de V . Este subespaço é chamado o

subespaço gerado por v1, v2, . . . , vr e dizemos que v1, v2, . . . , vr geram W ou

que {v1, v2, . . . , vr} é um conjunto gerador de W . Para indicarmos que W é

o espaço gerado por v1, v2, . . . , vr , escrevemos

W = G(v1, v2, . . . , vr).

Por exemplo, G((1, 0, 0), (0, 1, 0), (0, 0, 1)) = R3.

Proposição 3.1.6. Seja W = G(v1, v2, . . . , vr), onde v1, v2, . . . , vr são veto-

res de um espaço vetorial V . Valem as seguintes a�rmações:

Page 67: MA33 - Introdução à Álgebra Linear

1. SUBESPAÇOS VETORIAIS 65

(i) W é um subespaço de V ;

(ii) W é o menor subespaço de V contendo

v1, v2. . . . , vr , no sentido de que qualquer subespaço de V que contém v1, v2, . . . , vr

também contém W .

Demonstração (i): Tomemos a ∈ R e u, v ∈ W . Então existem números

reais a1, a2, . . . , ar e b1, b2, . . . , br tais que

u = a1v1 + a2v2 + · · ·+ arvr,

v = b1v1 + b2v2 + · · ·+ brvr .

Portanto, u+av = (a1+ab1)v1+(a2+ab2)v2+ · · ·+(ar+abr)vr . Assim,

u+av é uma combinação linear de v1, v2, . . . , vr e consequentemente pertence

a W . Pelo Corolário 3.1.2, W é um subespaço de V .

(ii): Cada vetor vi é uma combinação linear de v1, v2, . . . , vr , pois podemos

escrever

vi = 0v1 + 0v2 + · · ·+ 1vi + · · ·+ 0vr .

Isto mostra que o subespaço W contém cada um dos vetores v1, v2, . . . , vr .

Seja W ′ um subespaço qualquer de V contendo v1, v2, . . . , vr . Pelo Corolário

3.1.2, esse subespaço contém todas as combinações lineares destes vetores.

Assim, W ⊂ W ′. �

Exemplo 6. O espaço gerado pelo vetor v = (1, 1, 2) em R3 é o conjunto

W = {a(1, 1, 2) ; a ∈ R}, já que uma combinação linear de v é um múltiplo

escalar de v.

Dizemos que um vetor w = av é uma dilatação, uma contração, ou uma

inversão, de v, se a ≥ 1, 0 ≤ a < 1, ou a < 0, respectivamente.

Assim, um elemento do subespaço W , acima, é uma dilatação, uma con-

tração ou uma inversão de v (veja Figura 1).

Page 68: MA33 - Introdução à Álgebra Linear

66 CAPÍTULO 3. ESPAÇOS VETORIAIS

Figura 1

Exemplo 7. Vamos encontrar o subespaço de R3 gerado pelos vetores v1 =

(1,−2,−1) e v2 = (2, 1, 1). Seja W = G(v1, v2). Tomemos v = (x, y, z) ∈ R3.

Temos que v ∈ W se, e somente se, existem números reais a1 e a2 tais que

v = a1v1 + a2v2 ,

ou, equivalentemente, se, e somente se, o sistema lineara1 + 2a2 = x

−2a1 + a2 = y

−a1 + a2 = z

(2)

tem solução. A matriz ampliada do sistema (2) é equivalente à matriz1 2 x

0 1 (x+ z)/3

0 0 (x+ 3y − 5z)/3

.Portanto, (2) tem solução se, e somente se, x + 3y − 5z = 0. Assim,

W = {(x, y, z) ∈ R3 ; x+ 3y − 5z = 0}.

Para gerarmos um mesmo espaço, podemos usar conjuntos geradores dis-

tintos. Por exemplo, se considerarmos um vetor não nulo w qualquer em

W no Exemplo 6 temos que G(v) = G(w). A seguinte proposição, cuja de-

monstração é deixada como exercício ao leitor (ver Problema 1.14), nos dá

Page 69: MA33 - Introdução à Álgebra Linear

1. SUBESPAÇOS VETORIAIS 67

uma condição necessária e su�ciente para que conjuntos distintos de vetores

gerem um mesmo espaço.

Proposição 3.1.7. Sejam α = {v1, v2, . . . , vr} e β = {w1, w2, . . . , wm} doisconjuntos de vetores em um espaço vetorial V . As seguintes a�rmações são

equivalentes:

(a) G(v1, v2, . . . , vr) = G(w1, w2, . . . , wm);

(b) cada vetor em α é uma combinação linear dos vetores de β e cada

vetor em β é uma combinação linear dos vetores de α.

Seja W um subespaço de um espaço vetorial V . Dar um conjunto de

geradores w1, . . . , wr de W é o mesmo que dar uma �parametrização� para o

espaço W . De fato, considerando a aplicação

ϕ : Rr → V

(a1, . . . , ar) 7→ a1w1 + · · ·+ arwr

temos que W coincide com a imagem de ϕ.

Problemas

1.1* Demonstre o Corolário 3.1.2.

1.2 Veri�que, em cada caso, se o conjunto W é um subespaço vetorial de

R2:

(a) W = {(x, y) ; x+ y = 0};(b) W = {(x, y) ; x+ y = 1};(c) W = {(x, y) ; x2 = y};(d) W = {(x, y) ; −x+ 3y = 0}.

1.3 Veri�que, em cada caso, se o conjunto W é um subespaço vetorial de R3:

(a) W = {(x, y, z) ; x = 0};(b) W = {(x, y, z) ; x+ y + z ≥ 0};(c) W = {(x, y, z) ; z = 3x− 2y};(d) W = {(x, 2x, x) ; x ∈ R};(e) W = {(4x, y, y − x) ; x, y ∈ R}.

Page 70: MA33 - Introdução à Álgebra Linear

68 CAPÍTULO 3. ESPAÇOS VETORIAIS

1.4 Veri�que, em cada caso, se o conjunto W é um subespaço vetorial de

M(3, 3):

(a) W = {[aij] ; a11 + a22 + a33 = 0};(b) W = {[aij] ; aij = aji para todo 1 ≤ i, j ≤ 3};(c) W = {[aij] ; aij = 0 se i 6= j};(d) W = {A ; A2 = A};(e) W = {A ;A é invertível}.

1.5 Veri�que, em cada caso, se o conjunto W é um subespaço vetorial de

R[x]:(a) W = {p(x) = a+ bx+ cx2 ; a, b, c ∈ Z};(b) W = {p(x) = a+ bx+ cx2 ; a = c = 0};(c) W = {p(x) = a+ bx+ cx2 ; c = a+ b};(d) W = {p(x) = a+ bx+ cx2 ; c ≥ 0}.

1.6 Determine, em cada caso, V ∩W e V +W :

(a) V = {(x, y, z) ∈ R3 ; x = y} e W = {(x, y, z) ∈ R3 ; x = y = z};(b) V={[aij]2×2 ; a11=a22 e a12=a21} e W={[aij]2×2 ; a11=a21 e a12=a22};(c) V = {(x, y,−x− 3y) ; x, y ∈ R} e W = {(0, 0, z) ; z ∈ R};(d) V = {(x, y, z, w) ∈ R4 ; x+ 2y − w = 0} e W = {(x, x, x, x) ; x ∈ R};(e) V = {(x, x, x) ; x ∈ R} e W = {(0, 0, z) ; z ∈ R}.

Quais das somas anteriores são somas diretas?

1.7 Seja V = M(3, 3). Sejam U e W os subespaços de V das matrizes

triangulares superiores e inferiores, respectivamente. Mostre que V 6= U⊕W .

Construa subespaços U ′ e W ′ de V tais que V = U ⊕W ′ e V = U ′ ⊕W .

1.8 Sejam U e W subespaços de um espaço vetorial V . Mostre que:

(a) U e W estão ambos contidos em U +W ;

(b) U ∩W é o maior subespaço contido em U e em W ;

(c) W +W = W .

1.9 Sejam U e W subespaços de um espaço vetorial V . Prove que:

(a) U ∪W é subespaço vetorial se, e somente se, U ⊆ W ou W ⊆ U ;

(b) U +W = U ∪W se, e somente se, U = W .

Page 71: MA33 - Introdução à Álgebra Linear

2. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 69

1.10 Sejam U1, U2, W1 e W2 subespaços de um espaço vetorial V de modo

que V = U1 ⊕W1 = U2 ⊕W2 . Se U1 ⊂ U2 e W1 ⊂ W2, prove que U1 = U2 e

W1 = W2 .

1.11* Determine uma condição que a, b e c devem satisfazer de modo que

(a, b, c) seja uma combinação linear de u = (2,−6, 4) e v = (2,−1, 1).

1.12* Considere o conjunto α = {(−1, 3, 1), (1,−2, 4)} e determine:

(a) o espaço gerado por α;

(b) o valor de k ∈ R para que v = (5, k, 11) pertença ao espaço gerado por

α.

1.13 Encontre um conjunto de geradores para cada espaço abaixo:

(a) V = {(x, y, z) ∈ R3 ; x− 2y + 3z = 0};(b) V = {(x, y, z, t) ∈ R4 ; x− y = 0 e x+ t = 0};(c) V = {p(x) = a+ bx+ cx2 ∈ R[x]2 ; a−

b

2= c};

(d) V =

{[a b

c d

]∈M(2, 2) ; a+ c = d e b = 0

}.

1.14 Prove a Proposição 3.1.7.

1.15 Quais dos seguintes vetores

(a) (0, 2, 2, 2), (b) (1, 4, 5, 2), (c) (0, 0, 0, 0), (d) (0, 3, 1, 5)

são combinações lineares de u = (0, 0, 2,−2) e v = (0, 1, 3,−1)?

1.16 Expresse os seguintes polinômios

(a) 2 + 5x, (b) −x+ 2x2, (c) 3 + 3x+ 5x2

como combinação linear de

p1(x) = 2 + x+ 4x2, p2(x) = 1− x+ 3x2, p3(x) = 3 + 2x+ 5x2.

2 Dependência e Independência Linear

Vimos na seção anterior, que um conjunto �nito de vetores α gera um

dado espaço vetorial V se cada vetor em V pode ser escrito como uma com-

binação linear dos vetores de α. Em geral, pode haver mais de uma maneira

Page 72: MA33 - Introdução à Álgebra Linear

70 CAPÍTULO 3. ESPAÇOS VETORIAIS

de expressar um vetor em V como uma combinação linear de vetores de um

conjunto gerador. Por exemplo, R3 = G(v1, v2, v3, v4), onde v1 = (1, 1, 1),

v2 = (1, 1, 0), v3 = (0, 1, 1) e v4 = (1, 0, 1). Note que

(4, 2, 1) = 1v1 + 2v2 − 1v3 + 1v4

e também que

(4, 2, 1) = −1v1 + 2v2 + 0v3 + 2v4 .

Observamos nesse ponto que é possível trabalhar com conjuntos arbitrá-

rios (in�nitos) de geradores, mas não o faremos aqui, pois necessitaríamos

introduzir novas ferramentas mais so�sticadas, como o Lema de Zorn, ou o

Axioma da Escolha (cf. [1]).

Nesta seção, estudaremos condições sob as quais cada vetor de V pode

ser escrito de uma única maneira como combinação linear dos elementos de

um conjunto gerador. Na próxima seção veremos que conjuntos geradores

com esta propriedade desempenham um papel fundamental no estudo dos

espaços vetoriais.

Sejam v1, v2, . . . , vr vetores em um espaço vetorial V . Dizemos que os

vetores v1, v2, . . . , vr são linearmente independentes, ou simplesmente inde-

pendentes, se a equação

a1v1 + a2v2 + · · ·+ arvr = 0

é satisfeita somente quando a1 = a2 = · · · = ar = 0. Caso exista algum

ai 6= 0, dizemos que os vetores v1, v2, . . . , vr são linearmente dependentes, ou

simplesmente dependentes. O conjunto {v1, v2, . . . , vr} é dito ser independenteou dependente se os vetores v1, v2, . . . , vr são independentes ou dependentes,

respectivamente.

Observemos que se um dos vetores v1, v2, . . . , vr é o vetor nulo, digamos

v1 = 0, então os vetores são dependentes, pois

1v1 + 0v2 + · · ·+ 0vr = 1 · 0 + 0 + · · ·+ 0 = 0

Page 73: MA33 - Introdução à Álgebra Linear

2. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 71

e o coe�ciente de v1 não é 0. Por outro lado, qualquer vetor não nulo v é,

por si só, independente, pois se av = 0, então a = 0. A seguir, apresentamos

outros exemplos de vetores independentes e dependentes.

Exemplo 1. Os vetores e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1) são

independentes, pois a equação

a1e1 + a2e2 + a3a3 = 0,

equivalente à equação

a1(1, 0, 0) + a2(0, 1, 0) + a3(0, 0, 1) = (0, 0, 0),

é satisfeita somente se a1 = a2 = a3 = 0.

Exemplo 2. Vamos veri�car se os vetores v1 = (1,−3, 4), v2 = (3, 2, 1) e

v3 = (1,−1, 2) são independentes ou dependentes.

A equação

a1v1 + a2v2 + a3v3 = 0

é dada por

a1(1,−3, 4) + a2(3, 2, 1) + a3(1,−1, 2) = (0, 0, 0)

ou, equivalentemente, é dada pelo sistema linear homogêneoa1 + 3a2 + a3 = 0

−3a1 + 2a2 − a3 = 0

4a1 + a2 + 2a3 = 0 .

(1)

Assim, os vetores v1, v2 e v3 são independentes, se o sistema em (1) tiver

somente a solução trivial; ou são dependentes, se o sistema tiver uma solução

não trivial. Mas, o sistema em (1) tem somente a solução trivial se, e somente

se, a matriz dos coe�cientes

A =

1 3 1

−3 2 −14 1 2

Page 74: MA33 - Introdução à Álgebra Linear

72 CAPÍTULO 3. ESPAÇOS VETORIAIS

é invertível (cf. Corolário 2.2.7). Como a matriz é equivalente por linhas à

matriz (justi�que) 1 3 1

−3 2 −10 0 0

,concluímos que v1, v2 e v3 são linearmente dependentes.

A solução do exemplo anterior motiva o próximo resultado, que nos ofe-

rece um método para veri�car se n vetores de Rn são linearmente indepen-

dentes ou dependentes. A demonstração é deixada ao cargo do leitor (veja

Problema 2.8).

Proposição 3.2.1. Sejam v1, v2, . . . , vn vetores em Rn, onde, para cada i,

com 1 ≤ i ≤ n, temos vi=(ai1, ai2, . . . , ain). Seja A = [aij]. Temos que

{v1, v2, . . . , vn} é linearmente independente se, e somente se, A é invertível.

E caso tenhamos n+1 vetores em Rn? O próximo teorema mostra que um

conjunto linearmente independente em Rn pode conter no máximo n vetores.

Teorema 3.2.2. Sejam v1, v2, . . . , vr vetores em Rn. Se r > n, então os

vetores v1, v2, . . . , vr são linearmente dependentes.

Demonstração Suponhamos que, para cada 1 ≤ i ≤ r, vi = (ai1, . . . , ain).

Consideremos a equação

k1v1 + k2v2 + · · ·+ krvr = 0.

Esta equação é equivalente ao sistema linear homogêneo

a11k1 + a21k2 + · · ·+ ar1kr = 0

a12k1 + a22k2 + · · ·+ ar2kr = 0...

......

...

a1nk1 + a2nk2 + · · ·+ arnkr = 0 .

(2)

O sistema dado em (2) é um sistema linear homogêneo de n equações nas r

incógnitas k1, k2, . . . , kr . Como r > n, segue do Corolário 2.2.7 que o sistema

tem soluções não triviais. Isto mostra que v1, v2, . . . , vr são dependentes. �

Page 75: MA33 - Introdução à Álgebra Linear

2. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 73

O termo �linearmente dependente" sugere que os vetores de alguma ma-

neira dependem uns dos outros. O próximo resultado mostra que isto real-

mente ocorre.

Teorema 3.2.3. Um conjunto �nito α com dois ou mais vetores de um

espaço vetorial V é linearmente dependente se, e somente se, pelo menos um

dos vetores de α pode ser escrito como uma combinação linear dos outros

vetores.

Demonstração Seja α = {v1, v2, . . . , vr} um subconjunto de um espaço

vetorial V . Se α é linearmente dependente, então existem números reais

a1, a2, . . . , ar , não todos nulos, tais que a1v1 + a2v2 + · · · + arvr = 0. Supo-

nhamos que aj 6= 0. Então

vj = −a1ajv1 − · · · −

aj−1aj

vj−1 −aj+1

ajvj+1 − · · · −

arajvr ,

mostrando que vj é uma combinação linear dos demais vetores de α. Supo-

nhamos agora que α tem a propriedade de que um de seus vetores, digamos

vi , pode ser escrito como uma combinação linear dos outros vetores de α.

Ou seja, que existem números reais b1, . . . , bi−1, bi+1, . . . , br tais que

vi = b1v1 + · · ·+ bi−1vi−1 + bi+1vi+1 + · · ·+ brvr .

A equação anterior equivale a

b1v1 + · · ·+ bi−1vi−1 − 1vi + bi+1vi+1 + · · ·+ brvr = 0. (3)

Como o coe�ciente de vi na equação (3) não é 0, segue que α é linearmente

dependente. �

Do resultado acima, segue imediatamente que um conjunto �nito α com

dois ou mais vetores de um espaço vetorial V é linearmente independente se, e

somente se, nenhum dos vetores de α pode ser escrito como uma combinação

linear dos outros vetores.

Por exemplo, nenhum dos vetores dados no Exemplo 1 pode ser escrito

como uma combinação linear dos demais. Já, no Exemplo 2, observemos que

v3 =5

11v1 +

2

11v2 .

Page 76: MA33 - Introdução à Álgebra Linear

74 CAPÍTULO 3. ESPAÇOS VETORIAIS

Problemas

2.1* Considere o espaço vetorial R[x]. Determine se os polinômios f(x),

g(x), h(x) são linearmente dependentes, onde f(x) = x3 + 4x2 − 2x + 3,

g(x) = x3 + 6x2 − x+ 4 e h(x) = 2x3 + 8x2 − 8x+ 7.

2.2 Veri�que, em cada caso, se o conjunto de vetores de R3 indicado é linear-

mente dependente:

(a) {(2,−1, 4), (−4, 10, 2)};(b) {(−3, 0, 4), (5,−1, 2), (1, 1, 3)};(c) {(1, 0, 2), (3, 1, 5), (−1, 2, 1), (4, 0, 1)}.

2.3 Quais dos seguintes conjuntos de vetores em R4 são linearmente depen-

dentes?

(a) {(3, 8, 7,−3), (1,−1/2, 1, 3), (1, 4, 0, 3)};(b) {(0, 0, 1, 1), (2, 2, 0, 0), (3, 3, 0,−3)};(c) {(1, 0,−1, 2), (0, 2, 3, 1), (0, 1, 1, 0), (−2, 1, 2, 1)}.

2.4 Para quais valores reais de a os vetores

v1 = (a,−1,−1), v2 = (−1, a,−1) e v3 = (−1,−1, a)

formam um conjunto linearmente dependente em R3?

2.5 Seja V um espaço vetorial e seja α = {v1, v2, . . . , vn} um conjunto linear-

mente independente de vetores de V . Mostre que qualquer subconjunto não

vazio de α é também linearmente independente.

2.6 Mostre que se {v1, v2, v3, v4} é um conjunto linearmente dependente de

vetores em um espaço vetorial V e se v5 é um vetor qualquer em V , então

{v1, v2, v3, v4, v5} também é linearmente dependente.

2.7 Mostre que se {v1, v2, v3, v4} gera um espaço vetorial V e se v4 é uma

combinação linear de v1, v2 e v3 , então {v1, v2, v3} ainda gera V .

2.8 Demonstre a Proposição 3.2.1.

Page 77: MA33 - Introdução à Álgebra Linear

3. BASES E DIMENSÃO 75

2.9 Mostre que se {v1, v2, v3} é um conjunto linearmente independente de

vetores em um espaço vetorial V e se v4 /∈ G(v1, v2, v3), então {v1, v2, v3, v4}é linearmente independente.

2.10 Dados os elementos v1, . . . , vr de um espaço vetorial V , mostre que

esses são linearmente independentes se, e somente se, é injetiva a seguinte

aplicação:ϕ : Rr → V

(a1, . . . , ar) 7→ a1v1 + · · ·+ arvr .

3 Bases e Dimensão

Nesta seção introduziremos os dois conceitos fundamentais no contexto

dos espaços vetoriais: base e dimensão. Esses dois conceitos esclarecem a

estrutura desses espaços e ao mesmo tempo simpli�cam as demonstrações de

vários resultados sobre eles.

3.1 Bases

Seja α = {v1, v2, . . . , vn} um conjunto ordenado de vetores de um espaço

vetorial V . Dizemos que α é uma base de V se as seguintes condições são

veri�cadas:

(i) α é linearmente independente;

(ii) V = G(α).

Vimos no Exemplo 1, da seção anterior, que o conjunto α = {e1, e2, e3}é linearmente independente. Este conjunto também gera R3, pois qualquer

vetor v = (a1, a2, a3) em R3 pode ser escrito como v = a1e1 + a2e2 + a3e3 .

Assim, α, com a ordenação dada pelos índices, é uma base de R3, chamada

base canônica de R3. Este é um caso particular do próximo exemplo.

Exemplo 1. De�nimos o símbolo de Kronecker 1, δij, para (i, j) ∈ N2, como

1Leopold Kronecker (Alemanha, 1823 � 1891) foi um dos grandes matemáticos do

século XIX. Além de sua grande e profunda contribuição à Matemática, �cou famoso

Page 78: MA33 - Introdução à Álgebra Linear

76 CAPÍTULO 3. ESPAÇOS VETORIAIS

δij =

{1, se i = j

0, se i 6= j.

Seja n ∈ N \ {0}. Para cada 1 ≤ i ≤ n, denotemos por ei o vetor

(δi1, δi2, . . . , δij, . . . , δin) = (0, . . . , 0, 1, 0, . . . 0)

em Rn, onde a componente 1 encontra-se na i-ésima posição. O conjunto

α = {e1, e2, . . . , en} é linearmente independente, pois a equação

k1e1 + k2e2 + · · ·+ knen = 0

é satisfeita somente se k1 = k2 = · · · = kn = 0. Além disto, este conjunto

também gera Rn, pois qualquer vetor v = (a1, a2, . . . , an) em Rn pode ser

escrito como

v = a1e1 + a2e2 + · · ·+ anen .

Assim, α, com a ordenação dada pelo índices dos e′is é uma base de Rn,

chamada base canônica de Rn.

O próximo exemplo apresenta a base canônica deM(m,n).

Exemplo 2. Sejam

M1 =

[1 0

0 0

], M2 =

[0 1

0 0

], M3 =

[0 0

1 0

]eM4 =

[0 0

0 1

].

O conjunto α = {M1,M2,M3,M4} é uma base deM(2, 2). Com efeito, para

vermos que α geraM(2, 2), observemos que um vetor qualquer

M =

[a b

c d

]emM(2, 2) pode ser escrito como

M = aM1 + bM2 + cM3 + dM4 .

pela polêmica envolvendo os trabalhos de Cantor, o criador da Teoria dos Conjuntos, que

Kronecker não considerava Matemática.

Page 79: MA33 - Introdução à Álgebra Linear

3. BASES E DIMENSÃO 77

Para veri�carmos que α é linearmente independente, suponhamos que

a1M1 + a2M2 + a3M3 + a4M4 = 0,

ou seja,

a1

[1 0

0 0

]+ a2

[0 1

0 0

]+ a3

[0 0

1 0

]+ a4

[0 0

0 1

]=

[a1 a2

a3 a4

]=

[0 0

0 0

].

Segue-se que a1 = a2 = a3 = a4 = 0 e, portanto, α é linearmente indepen-

dente. A base α é chamada a base canônica deM(2, 2). Mais geralmente, a

base canônica de M(m,n) é formada por mn matrizes distintas, cada uma

das quais possuindo uma única entrada igual a 1 e todas as demais entradas

iguais a 0, ordenadas de forma semelhante ao que foi feito no caso M(2, 2).

A noção de base é uma generalização para espaços vetoriais arbitrários

do sistema de coordenadas em R2 e R3 já que, como veremos a seguir, uma

base de um espaço vetorial V é um conjunto gerador no qual cada vetor de

V pode ser escrito de modo único como combinação linear desses vetores.

Teorema 3.3.1. Seja α = {v1, v2, . . . , vn} um conjunto ordenado de vetores

de um espaço vetorial V . As seguintes a�rmações são equivalentes:

(i) α é uma base de V ;

(ii) cada vetor v em V pode ser escrito de modo único na forma

v = a1v1 + a2v2 + · · ·+ anvn.

Demonstração Suponhamos que α é uma base de V . Tomemos v ∈ V .

Como α gera V , existem números reais a1, a2, . . . , an tais que

v = a1v1 + a2v2 + · · ·+ anvn . (1)

Para mostrar que a combinação linear em (1) é única, suponhamos que exis-

tem

b1, b2, . . . , bn em R tais que

v = b1v1 + b2v2 + · · ·+ bnvn . (2)

Page 80: MA33 - Introdução à Álgebra Linear

78 CAPÍTULO 3. ESPAÇOS VETORIAIS

De (1) e (2) segue que

(a1 − b1)v1 + (a2 − b2)v2 + · · ·+ (an − bn)vn = 0. (3)

Como α é independente, a equação (3) é satisfeita somente se aj − bj = 0

para todo 1 ≤ j ≤ n, ou seja, se bj = aj para todo 1 ≤ j ≤ n. Como

v ∈ V foi tomado de modo arbitrário, (ii) segue. Suponhamos agora que α

tem a propriedade de que cada vetor v em V pode ser escrito de modo único

como combinação linear dos elementos de α. Pela de�nição de espaço gerado,

claramente α gera V . Para mostrarmos que α é independente, consideremos

a equação

k1v1 + k2v2 + · · ·+ knvn = 0.

Como 0 = 0v1 + 0v2 + · · · + 0vn e esta escrita é única, segue que k1 = k2 =

· · · = kn = 0. �

Os números reais a1, a2, . . . , an que aparecem no Teorema 3.3.1 são cha-

mados coordenadas de v na base α. A matriz n× 1a1

a2...

an

,denotada por [v]α , é chamada a matriz das coordenadas de v na base α. Por

exemplo, se α é a base canônica de R3 e v = (1, 2, 1), então

[v]α =

121

.Tomemos agora β = {(1, 0, 0), (0, 1, 0), (1, 1, 1)}, que é uma base de R3. Então

[v]β =

011

.

Page 81: MA33 - Introdução à Álgebra Linear

3. BASES E DIMENSÃO 79

Geometricamente, o vetor v se localiza em uma mesma posição no espaço car-

tesiano, porém o modo como ele é determinado no espaço depende da base

com a qual estamos trabalhando. Os vetores de uma base de R3 (respec-

tivamente R2) especi�cam um sistema de coordenadas no espaço cartesiano

(respectivamente no plano cartesiano).

Observamos que a matriz das coordenadas de um vetor em relação a uma

base α não depende apenas de α, mas também da ordem na qual escrevemos

os seus vetores, já que uma mudança na ordem dos vetores da base implica

numa mudança correspondente da ordem das entradas da matriz. Dessa

forma, uma base de um espaço vetorial será sempre considerada como um

conjunto ordenado de vetores.

O próximo teorema mostra que um conjunto gerador de um espaço veto-

rial V sempre contém uma base de V .

Teorema 3.3.2. Sejam v1, v2, . . . , vn vetores não nulos que geram um espaço

vetorial V . Então, dentre estes vetores, podemos extrair uma base de V .

Demonstração Consideremos α0 = {v1, v2, . . . , vn}. Devemos extrair um

conjunto linearmente independente de α0. Se α0 é linearmente independente,

então α0 é uma base de V , e a demonstração termina aqui. Se α0 é linear-

mente dependente, segue do Teorema 3.2.3 que existe um vetor de α0 que

pode ser escrito como combinação linear dos demais. Sem perda de generali-

dade, suponhamos que este vetor seja vn , ou seja, que vn é uma combinação

linear de v1, v2, . . . , vn−1 . O conjunto α1 = {v1, v2, . . . , vn−1} ainda gera V .

(Por quê? Veja Problema 2.7). Se α1 é linearmente independente, então

α1 é uma base de V . Se α1 é linearmente dependente, então um dos veto-

res de α1 , digamos vn−1 , é uma combinação linear dos demais. O conjunto

α2 = {v1, v2, . . . , vn−2} ainda gera V . Se α2 é linearmente independente,

então α2 é uma base de V . Se α2 é linearmente dependente, prosseguimos

como anteriormente. Após uma quantidade �nita de passos, obteremos um

conjunto αr formado por n− r vetores (0 ≤ r ≤ n− 1) linearmente indepen-

dentes que ainda geram V . �

Page 82: MA33 - Introdução à Álgebra Linear

80 CAPÍTULO 3. ESPAÇOS VETORIAIS

O próximo resultado generaliza o Teorema 3.2.2.

Teorema 3.3.3. Seja V um espaço vetorial gerado por um conjunto �nito

de vetores v1, v2, . . . , vn . Então, qualquer conjunto com mais de n vetores

de V é linearmente dependente. (Consequentemente, qualquer conjunto de

vetores de V linearmente independente tem no máximo n vetores).

Demonstração Consideremos α = {v1, v2, . . . , vn}. Pelo Teorema 3.3.2, po-

demos extrair de α uma base de V . Suponhamos sem perda de generalidade

que β = {v1, v2, . . . , vr} seja esta base (notemos que 1 ≤ r ≤ n). Conside-

remos agora w1, w2, . . . , wm vetores de V , com m > n. Vamos mostrar que

estes vetores são linearmente dependentes. De fato, como β é uma base de

V , existem números reais aij (1 ≤ i ≤ m, 1 ≤ j ≤ r) tais que

w1 = a11v1 + a12v2 + · · ·+ a1rvr,

w2 = a21v1 + a22v2 + · · ·+ a2rvr,

......

......

wm = am1v1 + am2v2 + · · ·+ amrvr.

(4)

Se x1w1 + x2w2 + · · ·+ xmwm = 0, segue de (4) que

(a11x1 + a21x2 + · · ·+ am1xm)v1 + · · ·+ (5)

+ (a1rx1 + a2rx2 + · · ·+ amrxm)vr = 0.

Como β é linearmente independente, a equação (5) nos fornece o sistema

linear homogêneo a11x1 + a21x2 + · · ·+ am1xm = 0

......

...

a1rx1 + a2rx2 + · · ·+ amrxm = 0

que tem r equações e x1, x2, . . . , xm como incógnitas. Como r < m, o Coro-

lário 2.2.7 garante que o sistema linear em questão admite in�nitas soluções.

Logo, ele admite uma solução não trivial, ou seja, existe uma solução com

algum xi não nulo. Portanto, os vetores w1, w2, . . . , wm são dependentes. �

Page 83: MA33 - Introdução à Álgebra Linear

3. BASES E DIMENSÃO 81

Um espaço vetorial não nulo V é chamado de dimensão �nita se con-

tém um conjunto �nito {v1, v2, . . . , vn} de vetores que constitui uma base de

V . Se não existir um tal conjunto, dizemos que V é de dimensão in�nita.

Convencionamos que o espaço vetorial nulo é um espaço de dimensão �nita.

O próximo resultado, que é uma consequência do Teorema 3.3.3, nos

garante que todas as bases de um espaço vetorial de dimensão �nita têm o

mesmo número de elementos.

Teorema 3.3.4. Sejam α = {v1, v2, . . . , vr} e β = {w1, w2, . . . , ws} duas

bases de um espaço vetorial V . Então, r = s. Além disso, se A = (aij) e

B = (bij) são as matrizes com coe�cientes reais tais que

vi =r∑j=1

aijwj e wj =r∑

k=1

bjkvk,

então AB = I.

Demonstração Como α gera V e β é um conjunto linearmente indepen-

dente, segue do Teorema 3.3.3 que s ≤ r. Por outro lado, como β gera V e α

é um conjunto linearmente independente, segue do Teorema 3.3.3 que r ≤ s.

Portanto, r = s.

Sejam A e B tais que

vi =r∑j=1

aijwj e wj =r∑

k=1

bjkvk.

. Logovi =

∑rj=1 aijwj =

∑rj=1 aij (

∑rk=1 bjkvk)

=∑n

k=1

(∑nj=1 aijbjk

)vk.

Como os vi, i = 1, . . . , r formam um conjunto linearmente independente, isto

acarreta (justi�que) quer∑j=1

aijbjk = δik,

logo AB = I, provando a parte que faltava do resultado. �

Page 84: MA33 - Introdução à Álgebra Linear

82 CAPÍTULO 3. ESPAÇOS VETORIAIS

3.2 Dimensão

O número de elementos de uma base de um espaço vetorial V de dimensão

�nita é chamado de dimensão de V e denotado por dimV . Convencionamos

que se V é o espaço vetorial nulo, então dimV = 0.

Exemplo 3. Rn eM(m,n) são espaços vetoriais de dimensão �nita. A di-

mensão de Rn é n, já que a base canônica de Rn tem n elementos (ver Exemplo

1). Por esta razão, Rn é chamado de espaço n-dimensional. Os espaços veto-

riais R2 e R3 são usualmente chamados de espaços bidimensional e tridimen-

sional, respectivamente. Já a dimensão de M(m,n) é m · n (ver Exemplo

2). O espaço vetorial R[x], introduzido por Peano e que apresentamos no

Exemplo 3 da Seção 1, Capítulo 1, é um espaço vetorial que tem dimensão

in�nita. De fato, tomemos n ∈ N \ {0} e suponhamos que α = {p1, . . . , pn} éuma base de R[x]. Observemos que qualquer combinação linear dos elemen-

tos de α tem grau no máximo M , onde M = max{grau(pi) ; 1 ≤ i ≤ n}.Assim, o polinômio q(x) = xM+1 está em R[x], mas não pode ser escrito como

combinação linear dos elementos de α. Portanto, α não forma uma base de

R[x]. Como n foi tomado de modo arbitrário, vemos que nenhum conjunto

�nito de vetores em R[x] constitui uma base para este espaço vetorial.

Vimos no Teorema 3.3.2 que em espaços vetoriais V de dimensão �nita,

um conjunto gerador contém sempre uma base de V . A seguir, veremos que

um conjunto linearmente independente está contido em alguma base de V .

Teorema 3.3.5. Qualquer subconjunto linearmente independente de um es-

paço vetorial V de dimensão �nita pode ser completado de modo a formar

uma base de V .

Demonstração Suponhamos dimV = n. Seja α = {w1, w2, . . . , wr} um

conjunto de vetores linearmente independentes de V . Pelo Teorema 3.3.3,

r ≤ n. Se α gera V , então α é uma base de V , e a demonstração acaba

aqui (neste caso, r = n). Se α não gera V , então existe um vetor de V

que não pertence ao espaço gerado por α. Chamemos este vetor de wr+1 .

O conjunto {w1, w2, . . . , wr+1} é linearmente independente. (Por quê? Veja

Page 85: MA33 - Introdução à Álgebra Linear

3. BASES E DIMENSÃO 83

Problema 2.9). Se este conjunto gera V , temos então uma base de V que

contém α. Caso contrário, prosseguimos usando o argumento acima. Como

não podemos ter mais do que n vetores independentes em V , após um número

�nito de passos teremos obtido uma base de V que contém os vetores de α.

Terminamos esta seção apresentando um resultado que envolve a noção de

dimensão para subespaços. Mais precisamente, mostraremos que a dimensão

de um subespaço W de um espaço vetorial de dimensão �nita V não pode

exceder a dimensão de V e que a única maneira de W ter a mesma dimensão

de V é sendo igual a V .

Teorema 3.3.6. Seja V um espaço vetorial de dimensão �nita. Se W é um

subespaço de V , então W tem também dimensão �nita e dimW ≤ dimV .

Além disso, se dimW = dimV , então W = V .

Demonstração Se W = {0}, W tem dimensão �nita. Se W 6= {0}, tome

w1 ∈ W com w1 6= 0. O conjunto α1 = {w1} é independente. Se α1 gera W ,

então α1 é uma base de W . Assim, W tem dimensão �nita igual a 1. Se α1

não gera W , existe w2 ∈ W com w2 /∈ G(w1). O conjunto α2 = {w1, w2} éindependente. Se α2 gera W , então W tem dimensão �nita igual a 2. Se α2

não gera W , prosseguimos com o raciocínio anterior. Como dimV é �nita,

digamos n, e qualquer conjunto independente de V tem no máximo n vetores,

existe m ∈ N \ {0} com m ≤ n tal que

αm = {w1, w2, . . . , wm}

é uma base de W . Isto prova que W tem dimensão �nita e que dimW = m,

com m ≤ n.

Suponhamos agora que dimW = dimV = n. Seja β = {w1, w2, . . . , wn}uma base de W . Suponhamos que W 6= V . Como W ⊂ V , existe então um

vetor de V que não está em W . Chamemos este vetor de v. Como v /∈ W ,

o conjunto {w1, w2, . . . , wn, v} é um conjunto de vetores de V linearmente

independente. Como este conjunto tem n + 1 vetores e dimV = n, temos

uma contradição. Portanto, de fato, W = V . �

Page 86: MA33 - Introdução à Álgebra Linear

84 CAPÍTULO 3. ESPAÇOS VETORIAIS

Observe que a demonstração da primeira parte do Teorema 3.3.6 nos

dá um método para acharmos uma base de um subespaço. Em particular,

mostramos que todo espaço vetorial não nulo de dimensão �nita tem uma

base .

Problemas

3.1* Seja V um espaço vetorial tal que dimV = n. Prove que:

(a) n vetores linearmente independentes de V formam uma base de V ;

(b) n vetores que geram V formam uma base de V .

Em geral, para mostrar que um conjunto de vetores α é uma base de um

espaço vetorial V , devemos veri�car que os vetores em α são linearmente

independentes e que geram V . No entanto, se soubermos que V tem dimensão

n e que α tem n elementos, então para que α seja uma base de V , basta

veri�car que os seus elementos são linearmente independentes ou que geram

V , pois uma condição automaticamente implica a outra. Ou seja, o trabalho

de veri�car se α é uma base �ca simpli�cado !

3.2* Seja V o espaço vetorial das matrizes simétricas 2 × 2. Mostre que

dimV = 3 e exiba uma base de V .

3.3* Sejam U e W os seguintes subespaços de R4:

U = {(a, b, c, d) ; b+ c+ d = 0}, W = {(a, b, c, d) ; a+ b = 0, c = 2d}.

Ache uma base e a dimensão de

(a) U , (b) W , (c) U ∩W , (d) U +W .

3.4 Seja α = {v1, v2, v3}, onde v1 = (1, 1, 0), v2 = (0, 1,−1) e v3 = (2, 0, 2).

(a) α é linearmente independente ou dependente? Justi�que a sua resposta.

(b) Obtenha β ⊂ α tal que β é independente e que G(β) = G(α).

(c) Qual a dimensão de G(α)? Justi�que.

3.5 Seja U um subespaço de um espaço vetorial V de dimensão �nita. Mostre

que existe um subespaço W de V tal que V = U ⊕W .

Page 87: MA33 - Introdução à Álgebra Linear

3. BASES E DIMENSÃO 85

3.6 Determine se as matrizes

A =

[1 1

0 0

], B =

[0 1

1 0

], C =

[0 0

−1 −1

]e D =

[0 0

0 −1

]

formam uma base deM(2, 2).

3.7 Determine a dimensão do espaço vetorial de todas as matrizes 3 × 3

triangulares superiores.

3.8 Seja A uma matriz 3 × 3. Por que o conjunto I, A,A2, . . . , A9 é linear-

mente dependente?

3.9 Determine a dimensão do espaço vetorial de todos os polinômios p de

grau ≤ 4 tais que p(1) = 0.

3.10 Seja W o subespaço vetorial de M(2, 2) dado por

W =

{[a b

c d

]; a = d e c = a+ b

}.

(a) Qual a dimensão de W?

(b) O conjunto {[1 −10 1

],

[2 1

3 4

]}é uma base de W? Por quê?

3.11 Encontre uma base e a dimensão do conjunto solução dos seguintes

sistemas:

(a)

x+ 2y − 2z − t = 0

x+ y + z + t = 0

x+ 2y + 3z + 2t = 0 ;

(b)

x+ y − 2z + t = 0

2x+ 2y − 4z + 2t = 0 .

3.12 Podemos ter uma base de R[x]n formada por n+ 1 polinômios de grau

n? Justi�que a sua resposta.

3.13 Encontre as coordenadas de:

Page 88: MA33 - Introdução à Álgebra Linear

86 CAPÍTULO 3. ESPAÇOS VETORIAIS

(a) u = (1,−1) em relação à base {(2,−4), (3, 8)} de R2;

(b) u = (1,−1) em relação à base {(1, 1), (0, 2)} de R2;

(c) p(x) = 2 + x− x2 em relação à base {1 + x, 1 + x2, x+ x2} de R[x]2.

3.14 Seja V um espaço vetorial de dimensão �nita e seja α uma base de V .

Mostre que:

(a) [v + w]α = [v]α + [w]α para quaisquer v e w em V ;

(b) [cv]α = c[v]α para todo v em V e para todo c ∈ R.

3.15 Sejam U e V espaços vetoriais, de dimensões r e s, respectivamente.

Mostre que o espaço vetorial U × V , de�nido no Problema 1.5, do Capítulo

1, tem dimensão r + s.

Sugestão Se {u1, . . . , ur} é uma base de U e {v1, . . . , vs} é uma base de V ,

mostre que {(ui, 0); 1 ≤ i ≤ r} ∪ {(0, vj); 1 ≤ j ≤ s} é uma base de U × V .

3.16 Sejam U eW subespaços de um espaço vetorial V tais que U∩W = {0}.Sejam {u1, . . . , ur} e {w1, . . . , ws}, respectivamente, bases de U e W . Mostre

que {ui; 1 ≤ i ≤ r} ∪ {wj; 1 ≤ j ≤ s} é uma base de U +W . Conclua que

dim(U +W ) = dimU + dimW .

4 Espaço Linha de uma Matriz

Nesta seção vamos apresentar um método para encontrar uma base de

subespaços de Rn, usando as transformações elementares nas linhas de uma

matriz.

Para uma matriz m× n

A =

a11 a12 . . . a1n

a21 a22 . . . a2n...

......

am1 am2 . . . amn

,

Page 89: MA33 - Introdução à Álgebra Linear

4. ESPAÇO LINHA DE UMA MATRIZ 87

os vetores

v1 = (a11, a12, . . . , a1n)

v2 = (a21, a22, . . . , a2n)

......

vm = (am1, am2, . . . , amn)

em Rn formados pelas linhas de A são chamados os vetores linha de A. O

espaço G(v1, . . . , vm) gerado pelos vetores linha de A é chamado espaço linha

de A e denotado por L(A). Note que L(A) é um subespaço de Rn.

O espaço linha de uma matriz não se altera ao aplicarmos transformações

elementares. De fato, se A = [aij] é uma matriz m× n, é fácil veri�car que

G(v1, . . . , vi, . . . , vj, . . . , vm) = G(v1, . . . , vj, . . . , vi, . . . , vm),

G(v1, . . . , vi, . . . , vm) = G(v1, . . . , kvi, . . . , vm) (k 6= 0),

G(v1, . . . , vi, . . . , vj, . . . , vm) = G(v1, . . . , vi + kvj, . . . , vj, . . . , vm) (k ∈ R).

Em outras palavras,

L(A) = L(B), onde B = e(A), com e : Li ↔ Lj ;

L(A) = L(B), onde B = e(A), com e : Li → kLi (k 6= 0);

L(A) = L(B), onde B = e(A), com e : Li → Li + kLj (k ∈ R).

Disto decorre o seguinte importante fato:

Duas matrizes equivalentes geram o mesmo espaço linha .

O próximo resultado mostra como obter uma base para o espaço linha de

uma matriz.

Teorema 3.4.1. As linhas não nulas de uma matriz A, na forma escalonada

e equivalente a uma matriz A, formam uma base para o espaço linha de A.

Demonstração Sejam A uma matriz m × n e A = [aij] uma matriz na

forma escalonada equivalente a A. Suponhamos que A tem p linhas não

Page 90: MA33 - Introdução à Álgebra Linear

88 CAPÍTULO 3. ESPAÇOS VETORIAIS

nulas e consideremos os vetores

v1 = (a11, . . . , a1n)

v2 = (a21, . . . , a2n)

......

vp = (ap1, . . . , apn)

formados pelas linhas não nulas de A. Pelo que vimos anteriormente, L(A) =L(A) = G(v1, v2, . . . , vp), já que A é uma matriz equivalente a A. Vamos

mostrar que {v1, v2, . . . , vp} é linearmente independente. Para cada 1 ≤i ≤ p, seja ki a coluna na qual aparece o primeiro elemento não nulo da

i-ésima linha de A, ou seja aiki = 1 e ai,l = 0, se l < ki. Suponhamos que

a1v1 + · · ·+ apvp = 0, que reescrevemos como segue:

a1(0, . . . , 0, a1k1 , ?, . . . , ?, 0 , . . . , 0, . . . , ?)

+ a2(0, . . . , 0, 0 , 0, . . . , 0, a2k2 , . . . , 0, . . . , ?)...

+ ap(0, . . . , 0, 0 , 0, . . . , 0, 0, . . . , apkp , . . . , ?)

= (0, . . . , 0, 0 , 0, . . . , 0, 0 , . . . , 0, . . . , 0),

onde ? representa um número real.

Logo, a igualdade de vetores, acima, nos fornece um sistema de equações

lineares nas incógnitas a1, a2, . . . , ap, o qual contém as equações

a1a1k1 = · · · = apapkp = 0.

Como aiki = 1, para todo i = 1, . . . , p, segue que a1 = a2 = · · · = ap = 0.

Portanto, {v1, v2, . . . , vp} gera L(A) e é linearmente independente, ou seja,

{v1, v2, . . . , vp} forma uma base de L(A). �

Corolário 3.4.2. O posto pA de uma matriz A é o número máximo de linhas

linearmente independentes da mesma. Mais precisamente, pA = dimL(A).

Page 91: MA33 - Introdução à Álgebra Linear

4. ESPAÇO LINHA DE UMA MATRIZ 89

Demonstração A dimensão do espaço linha de uma matriz é igual ao

número máximo de linhas linearmente independentes da mesma. Como o

espaço linha de uma matriz é igual ao espaço linha de uma matriz escalonada

equivalente a ela, sua dimensão é igual ao número de linhas não nulas dessa

última, que é igual ao posto da matriz. �

O exemplo a seguir nos mostrará como o Teorema 3.4.1 pode nos ajudar

a determinar o espaço gerado por vetores em Rn.

Exemplo 1. Determine uma base do espaço gerado pelos vetores v1 =

(1,−2, 0, 0, 3), v2 = (2,−5,−3,−2, 6), v3 = (0, 5, 15, 10, 0) e v4 = (2, 6, 18, 8, 6).

O espaço gerado pelos vetores v1, v2, v3 e v4 é o espaço linha da matriz

A =

1 −2 0 0 3

2 −5 −3 −2 6

0 5 10 10 0

2 6 18 8 6

.Reduzindo esta matriz à forma escalonada obtemos a matriz

A =

1 0 0 −2 3

0 1 0 −1 0

0 0 1 1 0

0 0 0 0 0

.Os vetores linha não nulos da matriz A são os vetores w1 = (1, 0, 0,−2, 3),w2 = (0, 1, 0,−1, 0) e w3 = (0, 0, 1, 1, 0). Estes vetores formam uma base

para o subespaço de R5 gerado por v1, v2, v3 e v4 .

Assim, se W = G(v1, v2, v3, v4), então

W = G(w1, w2, w3)

= {xw1 + yw2 + zw3 ; x, y, z ∈ R}= {(x, y, z,−2x− y + z, 3x) ; x, y, z ∈ R}.

Problemas

Page 92: MA33 - Introdução à Álgebra Linear

90 CAPÍTULO 3. ESPAÇOS VETORIAIS

4.1* Seja U o subespaço de R4 gerado pelos vetores

u1 = (1,−2, 3,−3), u2 = (2, 3, 1,−4), u3 = (3, 8,−3,−5).

(a) Ache uma base e a dimensão de U .

(b) Estenda a base de U a uma base de todo o espaço R4.

4.2* Seja U o subespaço de R4 gerado pelos vetores

u1 = (2, 4,−2, 6), u2 = (1, 2, 1/2,−1) e u3 = (3, 6, 3,−7)e seja W o subespaço de R4 gerado pelos vetores

w1 = (1, 2,−4, 11) e w2 = (2, 4,−5, 14).Mostre que U = W .

4.3 Determine se (1, 1, 1), (1, 2, 3) e (0, 3, 1) formam uma base de R3.

4.4 Ache uma base e a dimensão do subespaço W de R4 gerado por

w1 = (−1, 4, 2,−1), w2 = (1,−3,−1, 2) e w3 = (4,−10,−2, 10).

Estenda a base de W a uma base de todo R4.

4.5 Encontre os vetores da base canônica que podem ser acrescentados ao

conjunto {v1, v2, v3} para formar uma base de R5, onde

v1 = (1,−4, 2,−3, 0), v2 = (−3, 8,−4, 6, 0) e v3 = (0,−1, 2, 5,−4).

Page 93: MA33 - Introdução à Álgebra Linear

Bibliogra�a

[1] H. P. Bueno, Álgebra Linear, um segundo curso , Coleção Textos Univer-

sitários, SBM, 2006.

[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,

2001.

[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-

mática e Aplicações, IMPA, 2008.

[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção

PROFMAT, SBM, 2012.

[5] V. J. Katz, A History of Mathematics - an Introduction , HarperCollins

College Publishers, 1993.

[6] S. Lang, Introduction to Linear Algebra , 2nd edition, Undergraduate Texts

in Mathematics, Springer, 1986.

[7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária,

IMPA, 1998.

[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção

Matemática Universitária, IMPA, 2010.

300

Page 94: MA33 - Introdução à Álgebra Linear

4

91

Livro: Introdução à Álgebra LinearAutores: Abramo Hefez

Cecília de Souza Fernandez

Capítulo 4: O Espaço Vetorial R3

Sumário

1 Retas e Planos em R3 . . . . . . . . . . . . . . . . . 93

1.1 Retas em R3 . . . . . . . . . . . . . . . . . . . . . 93

1.2 Planos em R3 . . . . . . . . . . . . . . . . . . . . . 99

2 Posições Relativas . . . . . . . . . . . . . . . . . . . 107

3 Determinantes e Geometria . . . . . . . . . . . . . 111

3.1 Determinantes . . . . . . . . . . . . . . . . . . . . 111

3.2 O Produto Vetorial . . . . . . . . . . . . . . . . . . 115

Page 95: MA33 - Introdução à Álgebra Linear

92 CAPÍTULO 4. O ESPAÇO VETORIAL R3

Neste Capítulo, aplicaremos os conceitos vistos no capítulo anterior à

Geometria Analítica em R3. Mais precisamente, usaremos os conceitos de

subespaço vetorial, base e dimensão para estudar as noções de retas e planos

em R3. Uma ferramenta essencial para o estudo da geometria em R3 é a

noção de produto escalar que introduziremos em seguida.

Dados u = (x1, x2, x3) e v = (y1, y2, y3) em R3, de�nimos o produto escalar

de u e v, denotado por u · v, como o número real

u · v = x1y1 + x2y2 + x3y3.

Por exemplo, (1, 2,−1) · (0, 2, 1) = 1.0 + 2.2 + (−1)(1) = 3.

É fácil veri�car que, para quaisquer u, v, w ∈ R3 e a ∈ R, tem-se

(i) u · v = v · u,(ii) u · (v + w) = u · v + u · w,(iii) (au) · v = u · (av) = a(u · v).

Dados dois vetores u e v em R3, dizemos que eles são ortogonais , e denotamos

u ⊥ v, quando u · v = 0.

O produto escalar é um caso particular de uma classe de produtos de-

�nidos em espaços vetoriais de dimensão qualquer, chamados de produtos

internos, que serão estudados no Capítulo 7.

A partir do produto escalar, podemos de�nir a norma de um vetor v =

(x, y, z), como

||v|| =√v · v =

√x2 + y2 + z2 .

Note que da de�nição segue-se imediatamente que ||v|| ≥ 0 e que ||v|| = 0

se, e somente se, v = 0.

Geometricamente, a norma do vetor v representa a distância da origem

de R3 ao ponto de coordenadas (x, y, z), ou seja, é igual ao módulo do vetor

v.

Mostraremos a seguir como a noção de produto escalar permite também

calcular o ângulo entre dois vetores em R3.

Page 96: MA33 - Introdução à Álgebra Linear

1. RETAS E PLANOS EM R3 93

Lembremos que o ângulo entre dois vetores não nulos u e v em R3 é o

ângulo θ formado por eles tal que 0 ≤ θ ≤ π (Figura 2).

Figura 2

Aplicando a lei dos cossenos no triângulo da Figura 2, obtemos

||u− v||2 = ||u||2 + ||v||2 − 2||u|| ||v|| cos θ. (1)

Por outro lado, segue das propriedade (i), (ii) e (iii) do produto escalar que

||u− v||2 = (u− v) · (u− v)= u · u− u · v − v · u+ v · v= ||u||2 − 2u · v + ||v||2. (2)

De (1) e (2), temos que

cos θ =u · v||u|| ||v||

· (3)

1 Retas e Planos em R3

1.1 Retas em R3

Seja v um vetor não nulo em R3. Seja W o conjunto de todas as combi-

nações lineares de v, ou seja,

W = G(v) = {tv ; t ∈ R}.

Page 97: MA33 - Introdução à Álgebra Linear

94 CAPÍTULO 4. O ESPAÇO VETORIAL R3

Geometricamente, W é o conjunto de todas as dilatações, contrações e in-

versões de v. (Figura 3).

Figura 3

Tomemos A um ponto de R3. De�nimos a reta que contém A e tem

direção v, e denotamos r(A, v), como o conjunto

r(A, v) = {A+ tv ; t ∈ R} = {A}+W.

O vetor v é chamado de um vetor diretor da reta r(A, v). Notemos que, pelo

Teorema 3.1.7, todo vetor não nulo em G(v) é um vetor diretor de r(A, v).

Pela regra do paralelogramo, é fácil determinar r(A, v) geometricamente. De

fato, a reta r(A, v) é determinada pelos vetores dados pela diagonal, que

parte da origem, do paralelogramo formado pelos vetores vA e tv (t ∈ R)(Figura 4), sendo que vA é o vetor dado pelo ponto A.Figura 4

Observamos que G(v), v 6= 0, é a reta que passa pela origem com direção

v, ou seja,

G(v) = r(0, v).

Portanto, todo subespaço vetorial de R3 de dimensão 1 é, geometricamente,

uma reta que passa pela origem. Reciprocamente, uma reta que passa pela

origem é o espaço gerado por um de seus vetores diretores e, consequente-

mente, é um subespaço vetorial de R3 de dimensão 1. Assim, caracterizamos

geometricamente todos os subespaços vetoriais de R3 com dimensão 1: os

Page 98: MA33 - Introdução à Álgebra Linear

1. RETAS E PLANOS EM R3 95

subespaços vetoriais de R3 com dimensão 1 são as retas em R3 que passam

pela origem.

A seguir apresentamos os diversos tipos de equações de uma reta em R3.

Seja r(A, v) uma reta em R3. Tomemos P ∈ R3. Temos que P ∈ r(A, v)

quando P = A+ tv para algum t ∈ R. A equação

P = A+ tv, t ∈ R, (1)

é chamada equação vetorial da reta r(A, v). Escrevendo P = (x, y, z),

A = (x1, y1, z1) e v = (a, b, c), obtemos de (1) que

(x, y, z) = (x1, y1, z1) + t(a, b, c), t ∈ R,

o que equivale às equações

x = x1 + ta, t ∈ R,

t = y1 + tb, t ∈ R, (2)

z = z1 + tc, t ∈ R.

As equações em (2) são chamadas de equações paramétricas de r(A, v). Se

a 6= 0, b 6= 0 e c 6= 0, obtemos de (2) que

t =x− x1a

=y − y1b

=z − z1c

,

ou seja,x− x1a

=y − y1b

=z − z1c· (3)

Page 99: MA33 - Introdução à Álgebra Linear

96 CAPÍTULO 4. O ESPAÇO VETORIAL R3

As equações em (3) são chamadas de equações simétricas da reta r(A, v).

Podemos apresentar as equações em (3) de uma outra forma, explicitando as

variáveis y e z e expressando-as em função de x. De fato,

y − y1b

=x− x1a

⇐⇒ y − y1 =b

a(x− x1) ⇐⇒ y = mx+ n,

onde

m =a

be n = − b

ax1 + y1,

ez − z1c

=x− x1a

⇐⇒ z − z1 =c

a(x− x1) ⇐⇒ z = px+ q,

onde

p =c

ae q = − c

ax1 + z1 .

As equações {y = mx+ n

z = px+ q, x ∈ R,(4)

são chamadas de equações reduzidas da reta r(A, v). Observamos que em (4) a

variável x aparece como variável independente. Se expressarmos as equações

de forma que a variável independente seja y ou z, as equações obtidas são

também chamadas de equações reduzidas.

Exemplo 1. Encontremos as equações paramétricas da reta que tem como

um vetor diretor v = (1, 0, 2) e que contém o ponto A = (2, 1,−3).Ora, as equações paramétricas da reta r(A, v) são

x = 2 + t

y = 1,

z = −3 + 2t; t ∈ R.

Exemplo 2. Determinemos a e b para que o ponto P = (1, a, b) pertença à

reta de equações x = −2 + t

y = 3− t,z = −1 + 2t; t ∈ R.

Page 100: MA33 - Introdução à Álgebra Linear

1. RETAS E PLANOS EM R3 97

Para que P pertença à reta dada, as componentes de P devem satisfazer

as equações acima, ou seja, devemos ter1 = −2 + t

a = 3− t,b = −1 + 2t,

para algum t ∈ R. A solução procurada é então a = 0 e b = 5.

Exemplo 3. Consideremos as retas r = r(A, v) e s = r(B,w), onde A =

(0, 1, 0), B = (1, 0, 0), v = (1,−1, 2) e w = (2, 1, 3). Vamos veri�car que

r ∩ s = ∅.Com efeito, se P = (x0, y0, z0) ∈ r, então, para algum t1 ∈ R,

x0 = t1, y0 = 1− t1, z0 = 2t1. (5)

E, se P = (x0, y0, z0) ∈ s, então, para algum t2 ∈ R,

x0 = 1 + 2t2, y0 = t2, z0 = 3t2. (6)

De (5) segue-se que P = (x0, 1 − x0, 2x0). E, de (6), segue-se que P =

(x0,x0−12, 3(x0−1)

2). Assim,

1− x0 =x0 − 1

2e 2x0 =

2

3(x0 − 1),

o que não ocorre para nenhum x0 em R. Logo, não existe P ∈ r ∩ s, ou seja,

r ∩ s = ∅.

Segue da de�nição de vetores colineares em um espaço vetorial sobre um

corpo K, dada na Seção 1 do Capítulo 1, que dois vetores v1 e v2 em R3 são

colineares quando eles pertencem a uma mesma reta que passa pela origem.

(Figura 5). Figura 5

Suponhamos que v1 e v2 pertençam à reta r(0, v). Então existem t1 e t2em R tais que v1 = t1v e v2 = t2v. Se v2 é o vetor nulo, {v1, v2} é dependente.Se v2 não é o vetor nulo, então t2 é um número real não nulo. Assim,

v1 −t1t2v2 = 0,

Page 101: MA33 - Introdução à Álgebra Linear

98 CAPÍTULO 4. O ESPAÇO VETORIAL R3

mostrando que {v1, v2} é dependente. Reciprocamente, sejam w1 e w2 vetores

não nulos em R3. Se {w1, w2} é um conjunto linearmente dependente, então

existe t ∈ R tal que w1 = tw2 . Logo, w1 pertence a reta r(0, w2). Portanto,

o conceito �v1 e v2 são linearmente dependentes� (linguagem algébrica) e o

conceito �v1 e v2 são colineares� (linguagem geométrica) são equivalentes.

Ou seja, provamos o seguinte resultado.

Proposição 4.1.1. Dois vetores v1 e v2 em R3 são linearmente dependentes

se, e somente se, v1 e v2 são colineares .

Discutimos acima a noção de vetores colineares. Existe também a noção

de pontos colineares. Diremos que três pontos distintos A,B,C ∈ R3 são

colineares se existir uma reta em R3 que contenha os três pontos. Os dois

conceitos se relacionam de acordo com o resultado a seguir.

Proposição 4.1.2. Três pontos distintos A,B,C ∈ R3 são colineares se, e

somente se, os vetores v1 = B − A e v2 = C − A são colineares .

Demonstração Suponhamos que A,B e C pertençam a uma mesma reta.

Como por dois pontos distintos passa uma e somente uma reta (Problema

1.6), a reta de equação vetorial

P = A+ v1t, t ∈ R

contém A e B. Como C pertence à mesma reta, existe t0 ∈ R tal que

C = A+ v1t0,

Page 102: MA33 - Introdução à Álgebra Linear

1. RETAS E PLANOS EM R3 99

ou seja, v2 = v1t0, mostrando que v1 e v2 são colineares.

Reciprocamente, suponhamos que v1 e v2 sejam colineares. Então, existe

t0 ∈ R tal que v2 = t0v1, ou seja

C − A = t0(B − A).

Considere a reta de equação vetorial

P = A+ t(B − A), t ∈ R.

Note que tomando t = 0, temos P = A e tomando t = 1, temos P = B.

Assim, A e B pertencem à reta. Tomando t = t0, temos P = A+t0(B−A) =C. Portanto, A, B e C pertencem a uma mesma reta. �

Exemplo 4. Veri�quemos que os pontos A = (2, 3, 1), B = (1, 4,−1) e

C = (3, 2, 3) são colineares.

Pelas Proposições 4.1.1 e 4.1.2, devemos veri�car que os vetores v1 =

B−A e v2 = C−A são linearmente dependentes. Temos que v1 = (−1, 1,−2)e v2 = (1,−1, 2). Como v1 + v2 = 0, temos que v1 e v2 são linearmente

dependentes.

1.2 Planos em R3

Sejam v1 e v2 dois vetores linearmente independentes em R3. Seja W o

conjunto de todas as combinações lineares de v1 e v2 , ou seja,

W = G(v1, v2) = {sv1 + tv2 ; s, t ∈ R}.

Tomemos A um ponto de R3. De�nimos o plano que passa por A determinado

por v1 e v2 , e o denotamos por π(A, v1, v2), como o conjunto

π(A, v1, v2) = {A+ sv1 + tv2 ; s, t ∈ R} = {A}+W.

Os vetores v1 e v2 são chamados de vetores base do plano π(A, v1, v2)

(ver Figura 6). Figura 6

Page 103: MA33 - Introdução à Álgebra Linear

100 CAPÍTULO 4. O ESPAÇO VETORIAL R3

Notemos que, pelo Teorema 3.3.6, quaisquer dois vetores independentes

w1, w2 em G(v1, v2) formam uma base de π(A, v1, v2), pois G(w1, w2) ⊂G(v1, v2) e as dimensões dos dois espaços são iguais. Observemos também

que o espaço G(v1, v2) é o plano que passa pela origem determinado por v1 e

v2 , ou seja,

G(v1, v2) = π(0, v1, v2).

Portanto, todo subespaço vetorial de R3 de dimensão 2 é, geometricamente,

um plano que passa pela origem. Reciprocamente, um plano que passa pela

origem é o espaço gerado por dois de seus vetores base e, consequentemente, é

um subespaço vetorial de R3 de dimensão 2. Assim, caracterizamos geometri-

camente todos os subespaços vetoriais de R3 com dimensão 2: os subespaços

vetoriais de R3 com dimensão 2 são os planos em R3 que passam pela origem.

Tomemos W um subespaço vetorial de R3. Pelo Teorema 3.3.6, segue que

dimW ≤ 3. Pelo que acabamos de ver, temos a seguinte classi�cação dos

subespaços W de R3:

aspecto algébrico aspecto geométrico

dimW = 0 ←→ W = {(0, 0, 0)} (origem do espaço)

dimW = 1 ←→ W é uma reta que passa pela origem

dimW = 2 ←→ W é um plano que passa pela origem

dimW = 3 ←→ W = R3

A seguir apresentamos a equação vetorial e as equações paramétricas de

um plano em R3. Seja π(A, v1, v2) um plano em R3. Tomemos P ∈ R3.

Page 104: MA33 - Introdução à Álgebra Linear

1. RETAS E PLANOS EM R3 101

Temos que P ∈ π(A, v1, v2) se, e somente se, P = A + sv1 + tv2 para certos

s, t ∈ R. A equação

P = A+ sv1 + tv2 , s ∈ R e t ∈ R (1)

é chamada equação vetorial do plano π(A, v1, v2). Escrevendo P = (x, y, z),

A = (x1, y1, z1), v1 = (a1, b1, c1) e v2 = (a2, b2, c2), obtemos de (1) que

(x, y, z) = (x1, y1, z1) + s(a1, b1, c1) + t(a2, b2, c2), s, t ∈ R,

o que equivale às equações

x = x1 + sa1 + ta2 , s, t ∈ R,

y = y1 + sb1 + tb2 , s, t ∈ R, (2)

z = z1 + sc1 + tc2 , s, t ∈ R.

As equações em (2) são chamadas de equações paramétricas de π(A,v1,v2).

Vamos apresentar agora a equação cartesiana ou equação geral de um plano.

Antes, precisamos apresentar a noção de vetor normal a um plano. Chama-

mos de vetor normal ao plano π(A, v1, v2) a um vetor não nulo ortogonal aos

vetores v1 e v2 (portanto, ortogonal a todo vetor do plano).

Seja n um vetor normal ao plano π(A, v1, v2). Seja P = (x, y, z) um

ponto de π(A, v1, v2). Denotemos por v o vetor dado por P − A. Então,

v = t1v1 + t2v2 para certos t1, t2 ∈ R. Como n ⊥ v1 e n ⊥ v2 , temos que

n · v1 = n · v2 = 0. Assim, n · v = 0. Se A = (x1, y1, z1) e n = (a, b, c), temos

que n · v = 0 equivale à equação

(a, b, c) · (x− x1, y − y1, z − z1) = 0,

ou seja,

ax+ by + cz + d = 0, (3)

onde d = −ax1 − by1 − cz1 . A equação em (3) é chamada de equação geral

ou cartesiana do plano π(A, v1, v2).

Page 105: MA33 - Introdução à Álgebra Linear

102 CAPÍTULO 4. O ESPAÇO VETORIAL R3

Exemplo 5. Determinemos as equações cartesianas dos planos cartesianos

xOy, yOz e xOz.

Os vetores e1 = (1, 0, 0) e e2 = (0, 1, 0) são vetores base para o plano

cartesiano xOy e o vetor e3 é um vetor normal ao plano xOy. Como e3 =

(0, 0, 1), a equação

z + d = 0x+ 0y + 1 · z + d = 0

é uma equação cartesiana do plano xOy, onde d é um número real a ser

determinado. Como a origem pertence ao plano xOy, temos que

d = 0 + d = 0.

Assim, z = 0 é a equação cartesiana do plano xOy.

As equações x = 0 e y = 0 são as equações cartesianas dos planos yOz e

xOz, respectivamente.

Pela de�nição, vimos que um plano �ca determinado por um ponto

A em R3 e por dois vetores v1 e v2 em R3 linearmente independentes. Existem

outras maneiras de se determinar um plano. No resultado a seguir, vamos

apresentar três outras maneiras de se determinar um plano em R3.

Page 106: MA33 - Introdução à Álgebra Linear

1. RETAS E PLANOS EM R3 103

Teorema 4.1.3.

(i) Existe um único plano em R3 que passa por um ponto A e tem um vetor

não nulo n como vetor normal.

(ii) Existe um único plano em R3 que passa por três pontos A, B e C não

colineares.

(iii) Existe um único plano que passa por uma reta r e um ponto A fora

de r.

Demonstração Provaremos apenas o item (i), deixando os demais itens

para o leitor (veja Problema 1.12).

Seja A um ponto em R3 e seja n um vetor não nulo. Consideremos

W = {v ∈ R3 ; v ·n = 0}. Como n é não nulo, W é um subespaço vetorial de

R3 de dimensão 2. Assim, podemos tomar dois vetores linearmente indepen-

dentes em W , digamos, v1 e v2 . O plano π(A, v1, v2) contém A e tem n como

um vetor normal. Mais ainda, este plano é o único com tais propriedades.

De fato, consideremos π(P,w1, w2) um plano que contém A e tem n como

um vetor normal. Vejamos que π(P,w1, w2) = π(A, v1, v2). Tomemos Q em

π(P,w1, w2). Então, existem ` e m em R tais que

Q = P + `w1 +mw2 . (4)

Como π(P,w1, w2) contém A, existem p e q em R tais que

A = P + pw1 + qw2 . (5)

Tomando a diferença (4)-(5), obtemos que

Q = A+ rw1 + sw2 (6)

com r e s em R. Como w1, w2 ∈ W , existem números reais a, b, c e d tais

que {w1 = av1 + bv2

w2 = cv1 + dv2 .(7)

Page 107: MA33 - Introdução à Álgebra Linear

104 CAPÍTULO 4. O ESPAÇO VETORIAL R3

Finalmente, substituindo (7) em (6), obtemos

Q = A+ (ra+ sc)v1 + (rb+ sd)v2 ,

ou seja, Q ∈ π(A, v1, v2). Mostramos assim que π(P,w1, w2) ⊂ π(A, v1, v2).

Deixamos para o leitor veri�car a outra inclusão. �

Exemplo 6. Determinemos a equação cartesiana do plano que contém o

ponto A = (1, 1, 1) e a reta r de equações paramétricasx = 2t,

y = 3t,

z = 1 + t; t ∈ R.

Como A /∈ r, pelo Teorema 4.1.3, existe um único plano π que contém A

e r. Para determinarmos este plano, tome B ∈ r e v um vetor diretor da reta

r; digamos B = (0, 0, 1) e v = (2, 3, 1). Considere w = B − A = (−1,−1, 0).O plano π(A, v, w) é o plano procurado. Note que aqui estamos dando uma

ideia de como resolver parte do Problema 1.12, provando assim o item (iii)

do Teorema 4.1.3.

Figura 7

O vetor n = (1,−1, 1) é um vetor normal ao plano π, logo uma equação

cartesiana deste plano é dada por

x− y + z + d = 0,

Page 108: MA33 - Introdução à Álgebra Linear

1. RETAS E PLANOS EM R3 105

onde d é um número real a ser determinado. Como A ∈ π, segue que

1− 1 + 1 + d = 0,

ou seja, d = −1. Portanto, uma equação cartesiana de π é

x− y + z − 1 = 0.

Exemplo 7. Determinaremos a equação vetorial do plano que contém os

pontos A = (1, 2, 3), B = (1,−1, 0) e C = (0, 2, 1).

Como os vetores v1 = B − A = (0,−3,−3) e v2 = C − A = (−1, 0,−2)são linearmente independentes, os pontos A, B e C não pertencem a uma

mesma reta. Assim, pela parte (ii) do Teorema 4.1.3, existe um único plano

π que contém os pontos A, B e C. Este plano é o plano π(A, v1, v2) (aqui

estamos dando uma ideia de como resolver a outra parte do Problema 1.12,

provando assim o item (ii) do Teorema 4.1.3), cuja equação vetorial é dada

por

P = A+ tv1 + sv2, t, s ∈ R.

Ou seja,

(x, y, z) = (1, 2, 3) + t(0,−3,−3) + s(−1, 0,−2), t, s ∈ R.

Note que para t = s = 0, obtemos (1, 2, 3) na equação acima. Para t = 1 e

s = 0, obtemos (1,−1, 0). E, para t = 0 e s = 1, obtemos (0, 2, 1). Assim,

π(A, v1, v2) contém os pontos A, B e C.

Problemas

1.1 Mostre que se w é ortogonal a u e a v, então w é ortogonal a todo vetor

de G(u, v).

1.2* Mostre que, em R3, a dependência linear de três vetores pode ser des-

crita geometricamente como segue:

Três vetores quaisquer u, v e w são dependentes se, e somente se, estão

num mesmo plano que passa pela origem, ou seja, se eles são coplanares .

Page 109: MA33 - Introdução à Álgebra Linear

106 CAPÍTULO 4. O ESPAÇO VETORIAL R3

Este exercício é uma versão da Proposição 4.1.1 para três vetores em R3.

1.3* Determine a equação geral do plano que passa pelos pontos

A = (−1, 2, 0), B = (2,−1, 1) e C = (−1,−1, 1).

1.4 Determine uma base para cada um dos seguintes subespaços de R3:

(a) o plano 3x− 4y − z = 0;

(b) a reta x = 2t, y = −t, z = 3t;

(c) o plano x− y = 0.

1.5 As equações paramétricas de uma reta são

x = 2 + 4t, y = t− 4, z = 7− 8t (t ∈ R).

Reduzir estas equações à forma simétrica.

1.6 (Determinação de uma reta por dois pontos.) Sejam A e B dois pontos

distintos em R3. Mostre que a reta r(A, v), onde v é o vetor A−B, é a única

reta que contém A e B.

1.7 Determine as equações simétricas da reta que contém os pontos A =

(2, 3, 0) e B = (0, 1, 2).

1.8 Determine as equações reduzidas, em função da variável z, da reta que

passa pelos pontos A = (−1, 0, 1) e B = (1, 3,−2).

1.9 Qual deve ser o valor de k para que os pontos A = (3, k, 1), B = (1, 1,−1)e C = (−2, 10,−4) pertençam à mesma reta?

1.10 Represente gra�camente os planos de equações:

(a) x+ y + z = 0; (b) z − 2 = 0; (c) 2x+ y + z − 1 = 0.

1.11 Determine o valor de k para que os pontos A = (k,−1, 5), B = (7, 2, 1),

C = (−1,−3,−1) e D = (1, 0, 3) estejam no mesmo plano.

1.12 Conclua a demonstração do Teorema 4.1.3.

1.13 Determine as equações paramétricas do planox

4+y

3+z

2= 1.

Page 110: MA33 - Introdução à Álgebra Linear

2. POSIÇÕES RELATIVAS 107

1.14 Determine a equação do plano que passa pelo ponto (2,−1, 0) e contéma reta 2x− y − z + 4 = 0

x+ 2y − z + 3 = 0 .

1.15 Determine os pontos de interseção dos planos coordenados xOy, yOz e

xOz com a reta

r :

y = 2x− 3

z = −x+ 2 .

2 Posições Relativas

Vejamos a seguir como os conceitos de base e dimensão podem ser apli-

cados no estudo sobre as posições relativas entre retas, retas e planos e

planos em R3. Antes precisamos lembrar que duas retas r1 = r(A1, v1) e

r2 = r(A2, v2) em R3 são ditas coplanares quando elas pertencem a um

mesmo plano. Na linguagem algébrica, isto equivale a dizer que o conjunto

de vetores {v, v1, v2} é linearmente dependente, onde v denota o vetor A2−A1

(veja Problema 2.1). As retas r1 e r2 são ditas reversas quando não são co-

planares. Se r1 e r2 são retas reversas, então r1 ∩ r2 = ∅, ou seja, elas não

se intersectam. No caso de r1 e r2 serem coplanares um e somente um dos

casos abaixo pode ocorrer:

1) r1 ∩ r2 = ∅;

2) r1 ∩ r2 = {P}, onde P ∈ R3;

3) r1 ∩ r2 = r1 = r2 .

Se 1) ocorre, ou seja, se r1 e r2 não se intersectam, r1 e r2 são ditas retas

paralelas. Se 2) ocorre, ou seja, se r1 e r2 se intersectam em um único ponto de

R3, r1 e r2 são ditas retas concorrentes. Se 3) ocorre, ou seja, se a interseção

coincide com as retas dadas, r1 e r2 são ditas retas coincidentes. Vejamos

uma demonstração destes fatos.

Page 111: MA33 - Introdução à Álgebra Linear

108 CAPÍTULO 4. O ESPAÇO VETORIAL R3

Proposição 4.2.1. (Posições relativas de duas retas coplanares) Se-

jam r1 = r(A1, v1) e r2 = r(A2, v2) duas retas coplanares em R3. Então, r1e r2 são paralelas ou r1 e r2 são concorrentes ou r1 e r2 são coincidentes.

Demonstração Se r1 ∩ r2 = ∅, as retas são paralelas e não temos nada a

fazer. Suponhamos que r1∩r2 6= ∅. Então existe P ∈ R3 tal que P ∈ r1∩r2 .Logo,

r1 = {A1}+W1 = {P}+W1

e

r2 = {A2}+W2 = {P}+W2,

onde W1 = G(v1) e W2 = G(v2). Daí, temos que

r1 ∩ r2 = {P}+ (W1 ∩W2). (1)

Como W1 e W2 são subespaços vetoriais de R3, temos pela Proposição 3.1.3

que W1 ∩ W2 é um subespaço vetorial de W1 e de W2 . Como dimW1 =

dimW2 = 1, segue agora, pelo Teorema 3.3.6, que dim(W1∩W2) ≤ 1. Temos,

então, dois casos a considerar:

Caso 1. dim(W1 ∩W2) = 0.

Neste caso, W1 ∩W2 = {0}. Logo, por (1), segue que r1 ∩ r2 = {P}.

Caso 2. dim(W1 ∩W2) = 1.

Pelo Teorema 3.3.6, segue neste caso que W1 ∩W2 = W1 = W2 Logo, por

(1), segue que r1 ∩ r2 = r1 = r2 . �

Vejamos a seguir o que ocorre com dois planos em R3.

Proposição 4.2.2. (Posições relativas entre dois planos) Sejam dados

dois planos π1 = π(P1, v1, v2) e π2 = π(P2, v3, v4) em R3. Uma e somente

uma das possibilidades a seguir pode ocorrer:

1) π1 ∩ π2 = ∅;

2) π1 ∩ π2 = r, onde r é uma reta em R3;

3) π1 ∩ π2 = π1 = π2 .

Page 112: MA33 - Introdução à Álgebra Linear

2. POSIÇÕES RELATIVAS 109

Se 1) ocorre, os planos são ditos paralelos. Se 2) ocorre, os planos são

ditos concorrentes e, se 3) ocorre, os planos são ditos coincidentes.

Demonstração Sejam π1 = {P1} + W1 e π2 = {P2} + W2 , onde W1 =

G(v1, v2) e W2 = G(v3, v4). Se π1∩π2 = ∅, nada temos a fazer. Suponhamos

π1 ∩ π2 6= ∅. Tomemos P ∈ π1 ∩ π2 . Então

π1 = {P1}+W1 = {P}+W1

e

π2 = {P2}+W2 = {P}+W2 .

Daí, temos que

π1 ∩ π2 = {P}+ (W1 ∩W2). (2)

Como W1 ∩W2 é um subespaço vetorial de W1, segue, pelo Teorema 3.3.6,

que dim(W1 ∩W2) ≤ dimW1 = 2.

Por outro lado, dim(W1 ∩W2) 6= 0, pois, caso contrário, teríamos, pelo

Problema 3.16 do Capítulo 3, que

4 = dimW1 + dimW2 = dim(W1 +W2) ≤ dimR3 = 3,

o que é absurdo. Portanto, 0 < dim(W1 ∩W2) ≤ 2.

Se dim(W1 ∩W2) = 2, então W1 ∩W2 = W1 = W2 . Neste caso, por (2),

π1 ∩ π2 = {P}+W1 = {P}+W2 = π1 = π2 .

Se dim(W1 ∩W2) = 1, então existe um vetor v não nulo em R3 tal que

W1 ∩W2 = G(v). Seja r = r(P, v). Temos, então, neste caso que

π1 ∩ π2 = {P}+G(v) = r.

Terminamos esta seção, observando que, no caso de termos uma reta r

e um plano π em R3, pode ocorrer uma e apenas uma das possibilidades

abaixo:

Page 113: MA33 - Introdução à Álgebra Linear

110 CAPÍTULO 4. O ESPAÇO VETORIAL R3

1) r ∩ π = {P}, onde P é um ponto de R3;

2) r ∩ π = ∅;

3) r ∩ π = r.

Se 1) ocorre, dizemos que r e π são concorrentes; se 2) ocorre, r e π são ditos

paralelos; e, se 3) ocorre, r está contida no plano π. A demonstração destes

fatos segue de argumentos semelhantes aos usados nas Proposições 4.2.1 e

4.2.2 e é, portanto, omitida.

Problemas

2.1* Sejam r1 = r(A1, v1) e r2 = r(A2, v2) duas retas em R3. Seja v o vetor

dado por A2 − A1. As seguintes a�rmações são equivalentes:

(a) r1 e r2 são coplanares, ou seja, r1 e r2 pertencem a um mesmo plano;

(b) o conjunto {v, v1, v2} é linearmente dependente.

2.2* Estude a posição relativa das retas

r1 :

y = 2x− 3

z = −xe r2 :

x = 1− 36t

y = 4− 6t

z = 3t .

2.3 Dê a posição relativa entre o plano 5x + 3y + 13z − 1 = 0 e o plano

3x+ 8y − 3z + 8 = 0.

2.4 Veri�que se a retax− 1

−1=

y − 2

3=

z − 4

2está contida no plano de

equação 4x− 2y + 5z − 20 = 0.

2.5 Dados os planos 2ax− y + 4z + 2 = 0 e 4x+ by + 8z + c = 0, determine

a, b e c para que eles sejam coincidentes.

2.6 Dados os planos 4x−3ay+6z−8 = 0 e 2x−6y+ bz+10 = 0, determine

a e b para que sejam paralelos.

2.7 Para os dois planos a1x+ b1y + c1z + d1 = 0 e a2x+ b2y + c2z + d2 = 0,

mostre que as seguintes relações são condições necessárias e su�cientes para:

Page 114: MA33 - Introdução à Álgebra Linear

3. DETERMINANTES E GEOMETRIA 111

(a) Paralelismo: existe k 6= 0 tal que a1 = ka2, b1 = kb2 e c1 = kc2;

(b) Coincidência: existe k 6= 0 tal que a1 = ka2, b1 = kb2, c1 = kc2 e

d1 = kd2.

3 Determinantes e Geometria

Nesta seção introduziremos os determinantes de matrizes 2 × 2 e 3 × 3,

para posteriormente aplicá-los ao estudo da geometria em R3. A noção mais

geral de determinantes será estudada no Capítulo 8.

Determinantes são funções muito especiais de�nidas nos espaços das ma-

trizes quadradas com valores no corpo onde estão os coe�cientes da matriz. A

utilidade dos determinantes é múltipla. Por exemplo, eles servem, como vere-

mos no Capítulo 8, para dar um critério para invertibilidade de matrizes e um

método para o cálculo da matriz inversa, caso a matriz seja invertível. Eles

permitem dar fórmulas explícitas para as soluções de sistemas de equações

lineares. Por meio deles, de�ne-se também a importante noção de polinômio

característico de uma matriz, noção que desempenhará papel fundamental no

Capítulo 9. O conceito de determinante aparece em vários outros contextos

da Matemática. Por exemplo, em Geometria, ele aparece como a área de

um paralelogramo e o volume de um paralelepípedo e, em Análise, ele está

presente em teoremas importantes, como o Teorema da Função Inversa, o

Teorema da Função Implícita e o Teorema de Mudança de Variáveis.

Nesta seção estaremos interessados nas aplicações dos determinantes à

geometria em R3.

3.1 Determinantes

No trabalho Um Tratado sobre Álgebra em Três Partes, de Colin Ma-

claurin (Escócia, 1698 - 1746), publicado em 1748, foi apresentado o que ele

chamou de teorema geral, que era usado para resolver um sistema linear n×nonde n ≤ 4. De fato, em seu trabalho nada foi mencionado sobre o caso em

Page 115: MA33 - Introdução à Álgebra Linear

112 CAPÍTULO 4. O ESPAÇO VETORIAL R3

que n ≥ 5. O método apresentado por Maclaurin é conhecido hoje como

Regra de Cramer, após o matemático Gabriel Cramer (Suíça, 1704 - 1752)

ter utilizado os métodos de Maclaurin em seu livro sobre curvas algébricas

em 1750.

Dado um sistema linear 2× 2 nas incógnitas x e y, digamos,ax+ by = e

cx+ dy = f,(1)

sabemos do Problema 2.12 do Capítulo 2 que, se ad− bc 6= 0, as soluções são

dadas pelas fórmulas

x =ed− fbad− bc

, y =af − cead− bc

.

Vejamos agora a resolução de um sistema linear de três equações nas

incógnitas x, y e z, digamos,ax+ by + cz = m

dx+ ey + fz = n

gx+ hy + kz = p.

(2)

Este sistema foi tratado por Maclaurin de modo análogo ao caso 2 × 2,

notando que, se o número real aek− ahf + dhc− dbk+ gbf − gec é diferentede zero, então

x =mek −mfh+ bfp− bnk + cnh− cepaek − ahf + dhc− dbk + gbf − gec

,

y =nak − ncg +mfg −mdk + pcd− pafaek − ahf + dhc− dbk + gbf − gec

e

z =aep− ahn+ dhm− dbp+ gbn− gemaek − ahf + dhc− dbk + gbf − gec

·

Maclaurin notou que, tal como no caso 2 × 2, cada uma das expressões

acima tem o mesmo denominador, que consiste de somas alternadas de vários

Page 116: MA33 - Introdução à Álgebra Linear

3. DETERMINANTES E GEOMETRIA 113

produtos dos coe�cientes das incógnitas do sistema. Ele também notou que

o numerador da expressão de cada uma das incógnitas consiste de somas

alternadas de vários produtos dos coe�cientes das demais incógnitas e dos

termos independentes do sistema.

Os numeradores e os denominadores que apareceram nas soluções de Ma-

claurin são o que conhecemos hoje por determinantes. O termo determinante

foi introduzido pela primeira vez por Gauss em 1801.

Vamos agora sintetizar as soluções de Maclaurin, introduzindo os deter-

minantes.

Se A = [aij] é uma matriz 2 × 2, de�nimos o determinante da matriz A

como

det

[a11 a12

a21 a22

]= a11a22 − a21a12. (3)

Se A = [aij] é uma matriz 3 × 3, de�nimos o determinante da matriz A

como

det

a11 a12 a13

a21 a22 a23

a31 a32 a33

=

a11a22a33 − a11a23a32 + a13a21a32 − a12a21a33 + a12a23a31 − a13a22a31.(4)

Note que a expressão (4) do determinante de uma matriz quadrada A de

ordem 3 pode ser escrita como

detA = a11 det

[a22 a23

a32 a33

]− a12 det

[a21 a23

a31 a33

]+ a13 det

[a21 a22

a31 a32

]. (5)

Voltando aos sistemas lineares, temos que, se

det

[a b

c d

]6= 0,

Page 117: MA33 - Introdução à Álgebra Linear

114 CAPÍTULO 4. O ESPAÇO VETORIAL R3

então as soluções do sistema (1) podem ser escritas na forma

x = det

[e b

f d

](det

[a b

c d

])−1, y = det

[a e

c f

](det

[a b

c d

])−1.

Por outro lado, se

det

a b c

d e f

g h k

6= 0,

as soluções do sistema (2) podem ser escritas na forma:

x = det

m b c

n e f

p h k

det

a b c

d e f

g h k

−1

,

y = det

a m c

d n f

g p k

det

a b c

d e f

g h k

−1

,

z = det

a b m

d e n

g h p

det

a b c

d e f

g h k

−1

.

A expressão do determinante em (3) é muito fácil de lembrar. Basta

tomar o produto dos elementos da diagonal principal da matriz A e dele

subtrair o produto dos elementos da outra diagonal.

A expressão do determinante em (4) pode ser recuperada a partir da regra

de Sarrus1, muito utilizada no Ensino Médio.Regra de Sarrus

Exemplo 1. Vamos calcular det

1 2 0

−1 4 1

2 1 1

.1Pierre Fréderic Sarrus (França, 1768 -1861) �cou conhecido na Matemática pela regra

prática de resolução de determinantes de matrizes quadradas de ordem 3.

Page 118: MA33 - Introdução à Álgebra Linear

3. DETERMINANTES E GEOMETRIA 115

Pela regra de Sarrus, obtemos que

det

1 2 0

−1 4 1

2 1 1

= 4 + 4 + 0− (−2 + 1 + 0) = 10.

3.2 O Produto Vetorial

Um outro produto que possui importantes aplicações geométricas é o

produto vetorial em R3. Trata-se de uma operação que a partir de dois

vetores linearmente independentes em R3, associa de modo natural um vetor

ortogonal ao plano gerado por estes vetores.

Sejam dados dois vetores u = (u1, u2, u3) e v = (v1, v2, v3) em R3. Para

que um vetor w = (x1, x2, x3) seja tal que w ⊥ u e w ⊥ v, as suas coordenadas

devem ser soluções do sistema{w · u = u1x1 + u2x2 + u3x3 = 0

w · v = v1x1 + v2x2 + v3x3 = 0,(6)

que podemos reescrever como{u1x1 + u2x2 = −u3x3v1x1 + v2x2 = −v3x3.

Como u e v são linearmente independentes, uma das expressões uivj−ujvi,para i, j = 1, 2, 3, i 6= j, é não nula (cf. Problema 3.7). Podemos, sem perda

Page 119: MA33 - Introdução à Álgebra Linear

116 CAPÍTULO 4. O ESPAÇO VETORIAL R3

de generalidade, supor que u1v2−u2v1 6= 0. Assim, o sistema acima se resolve

pela fórmula do Problema 2.12 do Capítulo 2, como segue:

x1 =u2v3 − u3v2u1v2 − u2v1

x3, x2 =u3v1 − u1v3u1v2 − u2v1

x3.

Portanto, para todo x3 ∈ R, o vetor(u2v3 − u3v2u1v2 − u2v1

x3,u3v1 − u1v3u1v2 − u2v1

x3, x3

)é um vetor ortogonal a u e v. Escolhendo x3 = u1v2 − u2v1, temos que o

vetor

(u2v3 − u3v2, u3v1 − u1v3, u1v2 − u2v1)

é ortogonal a u e v, independentemente da hipótese u1v2 − u2v1 6= 0 que

�zemos.

Isto motiva a seguinte de�nição:

Dados os vetores u = (u1, u2, u3) e v = (v1, v2, v3) em R3, o produto

vetorial de u e v, denotado por u× v, é o vetor de R3 dado por

u× v = (u2v3 − u3v2, u3v1 − u1v3, u1v2 − u2v1).

Por exemplo,

(1, 0, 0)× (0, 1, 2) = (0.2− 0.1,−1.2 + 0.0, 1.1− 0.0) = (0,−2, 1).

(1, 0, 0)× (0, 1, 0) = (0, 0, 1).

(0, 1, 0)× (0, 0, 1) = (1, 0, 0).

O produto vetorial possui as propriedades a seguir.

Para quaisquer u, v, w ∈ R3 e a ∈ R, tem-se que

(i) u× v = −v × u,

(ii) u× (v + w) = (u× v) + (u× w)

(iii) (au)× v = a(u× v) = u× (av),

(iv) (u× v) ⊥ u e (u× v) ⊥ v.

Page 120: MA33 - Introdução à Álgebra Linear

3. DETERMINANTES E GEOMETRIA 117

Estas propriedades são facilmente veri�cadas e serão deixadas como exercí-

cios para o leitor.

Notemos que a expressão que de�ne o produto vetorial pode ser colocada

em uma forma mais compacta com a ajuda dos determinantes.

De fato, se considerarmos a � matriz � formal 3× 3

A =

e1 e2 e3

x1 x2 x3

y1 y2 y3

,onde {e1, e2, e3} é a base canônica de R3 e (x1, x2, x3), (y1, y2, y3) ∈ R3, e cal-

cularmos o seu determinante utilizando a fórmula (4), vamos obter que seu

�determinante� é precisamente o produto vetorial de u = (x1, x2, x3) e v =

(y1, y2, y3). Note que esta expressão é apenas formal, desprovida de qualquer

conteúdo, pois, em princípio, não faz sentido considerar o determinante de

uma matriz onde os elementos da primeira linha são vetores e os elementos

das demais linhas são números reais. Isto é um abuso de notação, que serve

apenas para memorizar a de�nição de u× v.Por exemplo, para calcularmos o produto vetorial de u = (2,−8, 3) e

v = (0, 4, 3), escrevemos

u× v = det

e1 e2 e3

2 −8 3

0 4 3

= det

[−8 3

4 3

]e1 − det

[2 3

0 3

]e2 + det

[2 −80 4

]e3

= −36e1 − 6e2 + 8e3 = (−36,−6, 8).

A seguir, vamos apresentar duas identidades envolvendo o módulo do

produto vetorial de dois vetores em R3.

Proposição 4.3.1. Sejam u e v dois vetores em R3. Tem-se que :

i) ||u× v||2 = ||u||2 ||v||2 − (u · v)2;

ii) ||u× v|| = ||u|| ||v|| sen θ, sendo θ o ângulo entre u e v, com u e v não

nulos.

Page 121: MA33 - Introdução à Álgebra Linear

118 CAPÍTULO 4. O ESPAÇO VETORIAL R3

Demonstração (i): Sejam u = (x1, y1, z1) e v = (x2, y2, z2). Temos que

u× v = det

[y1 z1

y2 z2

]e1 − det

[x1 z1

x2 z2

]e2 + det

[x1 y1

x2 y2

]e3.

Logo,

||u× v||2 = (y1z2 − z1y2)2 + (−x1z2 + z1x2)2 + (x1y2 − y1x2)2.

Por outro lado,

||u||2||v||2 = (x21 + y21 + z21)(x22 + y22 + z22)

e

(u · v)2 = (x1x2 + y1y2 + z1z2)2.

Assim,

||u× v||2 = ||u||2||v||2 − (u · v)2.

(ii): Por (i), segue que

||u× v||2 = ||u||2||v||2 − (||u|| ||v|| cos θ)2,

uma vez que

cos θ =u · v||u|| ||v||

.

Portanto,||u× v||2 = ||u||2||v||2 − ||u||2||v||2 cos2 θ

= ||u||2||v||2(1− cos2 θ)

= ||u||2||v||2 sen2θ,

mostrando que

||u× v|| = ||u|| ||v||senθ.

A seguir, daremos a interpretação geométrica do módulo do produto ve-

torial de dois vetores.

Sejam u e v dois vetores não nulos em R3. Consideremos o paralelogramo

ABCD determinado pelos vetores u e v, conforme a Figura 8, abaixo, onde

h denota a altura do paralelogramo e θ é o ângulo entre os vetores u e v.

Page 122: MA33 - Introdução à Álgebra Linear

3. DETERMINANTES E GEOMETRIA 119

Figura 8

Sabemos da Geometria que

Área ABCD = ||u|| · h.

Como h = ||v|| senθ, segue que

Área ABCD = ||u|| senθ.

Pela Proposição anterior, item (b), concluímos então que

Área ABCD = ||u× v||.

Pelo que vimos acima, temos o seguinte resultado:

Proposição 4.3.2. O módulo do produto vetorial de dois vetores não nulos

u e v em R3 mede a área do paralelogramo determinado por estes vetores.

Com um outro �produto� em R3, podemos obter o volume do paralele-

pípedo determinado por três vetores não nulos. Este é o produto misto que

vamos de�nir a seguir.

Sejam u = (x1, y1, z1), v = (x2, y2, z2) e w = (x3, y3, z3) três vetores em

R3. Chama-se produto misto dos vetores u, v e w ao número real

(u, v, w) = u · (v × w).

Pelas de�nições de produto escalar e produto vetorial em R3, podemos

veri�car que

u · (v × w) = det

x1 y1 z1

x2 y2 z2

x3 y3 z3

.

Page 123: MA33 - Introdução à Álgebra Linear

120 CAPÍTULO 4. O ESPAÇO VETORIAL R3

Consideremos agora u, v e w três vetores não nulos em R3. Chamemos de

P o paralelepípedo determinado por estes vetores, conforme a �gura abaixo:

Figura 9

Na �gura, h denota a altura do paralelepípedo e θ o ângulo entre u e

v × w. Como vimos anteriormente, v × w é um vetor ortogonal aos vetores

v e w. Assim,

h = ||u|| cos θ.

A área da base do paralelepípedo P é dada por

||v × w||.

Portanto, se V denota o volume do paralelepípedo, obtemos

V = ||v × w|| ||u|| cos θ = ||u · (v × w)|| = ||(u, v, w)||.

Assim, obtivemos o resultado a seguir:

Proposição 4.3.3. O módulo do produto misto de três vetores não nulos u,

v e w em R3 mede o volume do paralelepípedo determinado por estes vetores.

Problemas

3.1 Mostre que os determinantes de matrizes 2 × 2 possuem as seguintes

propriedades:

Page 124: MA33 - Introdução à Álgebra Linear

3. DETERMINANTES E GEOMETRIA 121

a) Para todos a, b, c, c′, d, d′, t ∈ R,

det

[a b

c+ tc′ d+ td′

]= det

[a b

c d

]+ t det

[a b

c′ d′

],

o mesmo valendo para a primeira linha;

b) Para todos a, b ∈ R,

det

[a b

a b

]= 0;

c) det

[1 0

0 1

]= 1.

3.2 Mostre que uma função F :M(2, 2)→ R com as três propriedades acima

é tal que F = det.

3.3 Mostre que os determinantes de matrizes 3 × 3 possuem as seguintes

propriedades:

a) Para todos a, b, c, d, e, f, g, g′, h, h′, k, k′, t ∈ R,

det

a b c

d e f

g + tg′ h+ th′ k + tk′

= det

a b c

d e f

g h k

+ t det

a b c

d e f

g′ h′ k′

,o mesmo valendo para as outras duas linhas;

b) Para todos a, b, c, d, e, f, g, h, k ∈ R,

det

a b c

a b c

g h k

= det

a b c

d e f

a b c

= det

a b c

d e f

d e f

= 0,

c) det

1 0 0

0 1 0

0 0 1

= 1.

Page 125: MA33 - Introdução à Álgebra Linear

122 CAPÍTULO 4. O ESPAÇO VETORIAL R3

3.4 Mostre que, para quaisquer a, b, c e d em R, tem-se que

det

sen a cos a sen (a+ d)

sen b cos b sen (b+ d)

sen c cos c sen (c+ d)

= 0 .

3.5 Determine x ∈ R para que

det

x− 2 x+ 3 x− 1

2 1 3

3 2 1

= 60 .

3.6* Utilize o método de Maclaurin para determinar x′ e y′ em função de x

e y, onde {x = x′ cos θ − y′sen θy = x′sen θ + y′ cos θ.

3.7 Mostre que dois vetores u = (u1, u2, u3) e v = (v1, v2, v3) em R3 são

linearmente independentes se, e somente se, um dos três determinantes abaixo

é não nulo:

det

[u1 u2

v1 v2

]; det

[u1 u3

v1 v3

]; det

[u2 u3

v2 v3

].

Mostre que u× v = 0 se, e somente se, u e v são colineares.

3.8 Calcule a área do paralelogramo que tem por lados os vetores u = (1, 3, 5)

e v = (2, 1, 4).

3.9 Calcule o volume do paralelepípedo que tem por arestas os vetores u =

(1, 3, 5), v = (2, 1, 4) e w = (−2, 1,−3).

Page 126: MA33 - Introdução à Álgebra Linear

Bibliogra�a

[1] H. P. Bueno, Álgebra Linear, um segundo curso , Coleção Textos Univer-

sitários, SBM, 2006.

[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,

2001.

[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-

mática e Aplicações, IMPA, 2008.

[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção

PROFMAT, SBM, 2012.

[5] V. J. Katz, A History of Mathematics - an Introduction , HarperCollins

College Publishers, 1993.

[6] S. Lang, Introduction to Linear Algebra , 2nd edition, Undergraduate Texts

in Mathematics, Springer, 1986.

[7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária,

IMPA, 1998.

[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção

Matemática Universitária, IMPA, 2010.

300

Page 127: MA33 - Introdução à Álgebra Linear

5

123

Livro: Introdução à Álgebra LinearAutores: Abramo Hefez

Cecília de Souza Fernandez

Capítulo 5: Transformações Lineares

Sumário

1 O que são as Transformações Lineares? . . . . . . 124

2 Núcleo e Imagem . . . . . . . . . . . . . . . . . . . . 130

2.1 O Núcleo . . . . . . . . . . . . . . . . . . . . . . . 130

2.2 A Imagem . . . . . . . . . . . . . . . . . . . . . . . 132

2.3 O Teorema do Núcleo e da Imagem . . . . . . . . . 134

3 Operações com Transformações Lineares . . . . . 144

Page 128: MA33 - Introdução à Álgebra Linear

124 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

As funções naturais no contexto dos espaços vetorais, as chamadas de

transformações lineares, formam uma classe muito especial de funções que

têm muitas aplicações na Física, nas Engenharias e em vários ramos da Ma-

temática.

1 O que são as Transformações Lineares?

As funções nas quais se está interessado na Álgebra Linear são as funções

cujos domínios e contradomínios são espaços vetoriais e que, além disso,

preservam as operações de adição de vetores e de multiplicação de um vetor

por um escalar. Isto é o conteúdo da de�nição a seguir.

Sejam V e W espaços vetoriais. Uma transformação linear de V em W

é uma função T : V → W que possui as seguintes propriedades:

(i) T (v1 + v2) = T (v1) + T (v2), para quaisquer v1 e v2 em V ;

(ii) T (av) = aT (v), para quaisquer v em V e a em R.

As propriedades (i) e (ii) são equivalentes à seguinte propriedade:

T (v1 + av2) = T (v1) + aT (v2), (1)

para quaisquer v1 e v2 em V e para qualquer a em R.

É esta caracterização das transformações lineares que utilizaremos, por

ser mais prática, para mostrar que determinada função entre espaços vetoriais

é uma transformação linear.

Mostra-se por indução (veja Problema 1.1) que uma função T : V → W é

uma transformação linear se, e somente se, para todos v1, . . . , vr ∈ V e todos

a1, . . . , ar ∈ R, tem-se que

T (a1v1 + · · ·+ arvr) = a1T (v1) + · · ·+ arT (vr). (2)

Vejamos a seguir alguns exemplos.

Exemplo 1. A função T : R2 → R, dada por T (x, y) = x + y, é uma

transformação linear.

Page 129: MA33 - Introdução à Álgebra Linear

1. O QUE SÃO AS TRANSFORMAÇÕES LINEARES? 125

De fato, se v1 = (x1, y1) ∈ R2, v2 = (x2, y2) ∈ R2 e a ∈ R, temos que

T (v1 + av2) = T (x1 + ax2, y1 + ay2)

= x1 + ax2 + y1 + ay2

= (x1 + y1) + a(x2 + y2)

= T (v1) + aT (v2).

Portanto, T é uma transformação linear de R2 em R.

Exemplo 2. A função T : R3 → R2, dada por T (x, y, z) = (x − y, y − z), éuma transformação linear.

De fato, se v1 = (x1, y1, z1) ∈ R3, v2 = (x2, y2, z2) ∈ R3 e a ∈ R, então

T (v1 + av2) = T (x1 + ax2, y1 + ay2, z1 + az2)

= (x1 + ax2 − (y1 + ay2), y1 + ay2 − (z1 + az2))

= ((x1 − y1) + a(x2 − y2), (y1 − z1) + a(y2 − z2))= (x1 − y1, y1 − z1) + a(x2 − y2, y2 − z2)= T (v1) + aT (v2),

mostrando que T é uma transformação linear de R3 em R2.

Exemplo 3. A função T : R→ R, dada por T (x) = 5x, é uma transformação

linear.

De fato, se x1, x2, a ∈ R, temos que

T (x1 + ax2) = 5(x1 + ax2) = 5x1 + a5x2 = T (x1) + aT (x2).

Portanto, T é uma transformação linear de R em R.

Na realidade, toda transformação linear de R em R é da forma T (x) = c·x,x ∈ R, onde c é uma constante real; e reciprocamente (veja Problema 1.2).

Exemplo 4. A função T : R2 → R3, dada por T (x, y) = (0, 0, 0), é uma

transformação linear.

De fato, dados v1 e v2 em R2 e dado a ∈ R, tem-se que

T (v1 + av2) = (0, 0, 0) = (0, 0, 0) + a(0, 0, 0) = T (v1) + aT (v2),

Page 130: MA33 - Introdução à Álgebra Linear

126 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

mostrando que T é uma transformação linear.

Mais geralmente, se V e W são espaços vetoriais, a função T : V → W ,

dada por T (v) = 0, v ∈ V , é uma transformação linear, chamada transfor-

mação nula . A transformação nula de V em W será também denotada por

0.

Exemplo 5. A função T : R2 → R2 dada por T (x, y) = (x2, y) não é uma

transformação linear.

Com efeito, se tomarmos v1 = (1, 0) e v2 = (−1, 0), então

T (v1 + v2) = (0, 0) 6= (2, 0) = T (v1) + T (v2).

Exemplo 6. Seja f(x) um polinômio arbitrariamente �xado em R[x]. A

função T : R[x] → R[x], dada por T (p(x)) = p(f(x)), é uma transformação

linear.

De fato, se p1(x), p2(x) ∈ R[x] e a ∈ R, temos que

T (p1(x) + ap2(x)) = p1(f(x)) + ap2(f(x)) = T (p1(x)) + aT (p2(x)),

mostrando que T é uma transformação linear.

Exemplo 7. Uma função T : Rn → Rm é uma transformação linear se, e

somente se, existem números reais aij, com 1 ≤ i ≤ m e 1 ≤ j ≤ n, tais que

T (x1, . . . , xn) = (a11x1 + · · ·+ a1nxn, . . . , am1x1 + · · ·+ amnxn),

fazendo jus ao adjetivo linear associado à palavra transformação. Para a

demonstração deste resultado, veja Problema 1.3.

Como a maioria dos resultados a seguir é evidente para espaços veto-

riais nulos, vamos sempre considerar o domínio e o contradomínio de uma

transformação linear como espaços vetoriais não nulos.

Como consequência da propriedade (1), temos que uma transformação

linear T : V → W transforma o vetor nulo de V no vetor nulo de W , ou seja,

T (0) = 0. De fato,

0 = T (0)− T (0) = T (0) + (−1)T (0) = T (1 · 0− 1 · 0) = T (0).

Page 131: MA33 - Introdução à Álgebra Linear

1. O QUE SÃO AS TRANSFORMAÇÕES LINEARES? 127

Porém, o fato de uma função T ter como domínio e contradomínio espaços

vetoriais e satisfazer T (0) = 0 não implica que ela seja uma transformação

linear, como mostra o Exemplo 5.

Uma propriedade importante de uma transformação linear é que ela �ca

totalmente determinada se conhecermos seus valores nos vetores de uma base

de seu domínio. Mais precisamente, temos o resultado a seguir.

Teorema 5.1.1. Seja α = {v1, v2, . . . , vn} uma base de um espaço vetorial

V . Sejam w1, w2, . . . , wn vetores de um espaço vetorial W . Então existe

uma única transformação linear T : V → W tal que T (vj) = wj para todo

1 ≤ j ≤ n.

Demonstração Tomemos v ∈ V . Como α é uma base de V , v se escreve

de modo único como uma combinação linear dos vetores de α, digamos

v = a1v1 + a2v2 + · · ·+ anvn. (3)

De�na T : V → W por

T (v) = a1w1 + a2w2 + · · ·+ anwn. (4)

A função T está bem de�nida, pois os números reais a1, a2, . . . , an são uni-

camente determinados a partir de v. Além disso, T é uma transforma-

ção linear. De fato, tomemos a em R e w em V . Suponhamos que w =

b1v1 + b2v2 + · · ·+ bnvn. Como

v + aw = (a1 + ab1)v1 + (a2 + ab2)v2 + · · ·+ (an + abn)vn,

segue que

T (v + aw) = (a1 + ab1)w1 + (a2 + ab2)w2 + · · ·+ (an + abn)wn

= (a1w1 + a2w2 + · · ·+ anwn) + a(b1w1 + b2w2 + · · ·+ bnwn)

= T (v) + aT (w).

Para mostrar que T (vj) = wj, �xe j, onde 1 ≤ j ≤ n. Como

vj = 0v1 + · · ·+ 1vj + · · ·+ 0vn,

Page 132: MA33 - Introdução à Álgebra Linear

128 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

segue de (4) que

T (vj) = 0w1 + · · ·+ 1wj + · · ·+ 0wn = wj.

Vejamos agora que T é a única função com as propriedades desejadas. Para

isto, suponhamos que S : V → W seja uma transformação linear tal que

S(vj) = wj para todo j, com 1 ≤ j ≤ n. Tomemos v ∈ V . Por (3) e pela

linearidade de S (propriedade (2)), temos que

S(v) = a1S(v1) + a2S(v2) + · · ·+ anS(vn).

Como S(vj) = wj para todo 1 ≤ j ≤ n, obtemos

S(v) = a1w1 + a2w2 + · · ·+ anwn = T (v).

Como v ∈ V foi tomado de modo arbitrário, segue que S = T . �

Exemplo 8. Para determinarmos a transformação linear T : R2 → R3 tal

que T (1, 1) = (0, 2, 1) e T (0, 2) = (1, 0, 1) devemos, pelo Teorema 5.1.1,

veri�car que α = {(1, 1), (0, 2)} é uma base de R2 e calcular as coordenadas

de um vetor de R2 na base α. Ora, como α é linearmente independente e

dimR2 = 2, temos que α é uma base de R2. Além disso, se (x, y) ∈ R2, então

(x, y) = a1(1, 1) + a2(0, 2)

se, e somente se, a1 = x e a2 =y − x2

. Portanto,

T (x, y) = xT (1, 1) +

(y − x2

)T (0, 2)

= x(0, 2, 1) +

(y − x2

)(1, 0, 1)

=

(y − x2

, 2x,x+ y

2

).

Problemas

Page 133: MA33 - Introdução à Álgebra Linear

1. O QUE SÃO AS TRANSFORMAÇÕES LINEARES? 129

1.1 Sejam V e W dois espaços vetoriais e T : V → W uma função. Prove

que as seguintes a�rmações são equivalentes:

(a) T (u+ v) = T (u) + T (v) e T (av) = aT (v), para quaisquer u e v em V e

qualquer a em R;

(b) T (u+ av) = T (u) + aT (v), para quaisquer u e v em V e qualquer a em

R;

(c) T (a1v1 + · · ·+ arvr) = a1T (v1) + · · ·+ arT (vr), para quaisquer v1, . . . , vrem V e quaisquer a1, . . . , ar em R.

1.2 Mostre que T : R → R é uma transformação linear se, e somente se,

existe c ∈ R tal que T (x) = cx, para todo x ∈ R.

1.3 Seja T : Rn → Rm uma função. Mostre que T é uma transformação linear

se, e somente se, existem números reais aij, com 1 ≤ i ≤ m e 1 ≤ j ≤ n, tais

que

T (x1, . . . , xn) = (a11x1 + · · ·+ a1nxn, . . . , am1x1 + · · ·+ amnxn).

Sugestão Para mostrar que T é da forma desejada, escreva (x1, . . . , xn) =

x1e1 + · · · + xnen, onde e1, . . . , en é a base canônica de Rn. Ponha T (ei) =

(a1i, . . . , ami) e use a igualdade (2). A recíproca é uma veri�cação fácil.

1.4* Considere V = M(n, n) e seja B em V . De�na a função T : V → V

por T (A) = AB + BA para toda matriz A em V . Mostre que T é uma

transformação linear.

1.5 Mostre que a função T :M(m,n)→M(n,m), de�nida por T (A) = At,

é uma transformação linear.

1.6 Dada uma transformação linear T tal que T (u) = 2u e T (v) = u + v,

calcule em função de u e v:

(a) T (u+ v); (b) T (3v); (c) T (−3u); (d) T (u− 5v).

1.7 Quais das funções abaixo são transformações lineares? Justi�que as res-

postas dadas.

(a) T : R3 → R3, onde T (x, y, z) = (x+ y, x− z, 0).

Page 134: MA33 - Introdução à Álgebra Linear

130 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

(b) T : R2 → R3, onde T (x, y) = (x2, x, y).

(c) T : R2 →M(2, 2), onde T (x, y) =

[2x x− yx+ y 2y

].

(d) T : R2 → R, onde T (x, y) = xy.

(e) T : R[x]2 → R[x]2, onde T (ax+ b) = ax2 + bx.

(f) T : R[x]d → R[x]d, onde T (x) = x+ a, com a ∈ R.

1.8 Determine n e m e a transformação linear T : Rn → Rm tal que:

(a) T (1, 2) = (3, 1, 1) e T (1, 1) = (1,−1, 0);

(b) T (1, 1, 1) = (2,−1, 4), T (1, 1, 0) = (3, 0, 1) e T (1, 0, 0) = (−1, 5, 1).

1.9 Sejam {v1, v2, . . . , vn} uma base de um espaço vetorial V e T : V→Wuma transformação linear. Mostre que T (v1) = T (v2) = · · · = T (vn) = 0 se,

e somente se T é a transformação nula.

2 Núcleo e Imagem

O núcleo e a imagem de uma transformação linear são dois subespaços

de seu domínio e de seu contradomínio, respectivamente, que nos fornecem

informações valiosas sobre a transformação. Há uma relação importante

entre as dimensões do domínio, do núcleo e da imagem de uma transformação

linear, que apresentaremos nesta seção e que possui muitas aplicações.

2.1 O Núcleo

Seja T : V → W uma transformação linear. O núcleo de T , denotado por

KerT , é o conjunto de vetores de V que são levados por T no vetor nulo de

W , ou seja,

KerT = {v ∈ V ; T (v) = 0}.

Note que KerT é um subconjunto não vazio de V , já que T (0) = 0. Mais

ainda, KerT é um subespaço de V . De fato, se v1, v2 ∈ KerT e se a ∈ R,

Page 135: MA33 - Introdução à Álgebra Linear

2. NÚCLEO E IMAGEM 131

então v1 + av2 ∈ KerT , pois

T (v1 + av2) = T (v1) + aT (v2) = 0 + a · 0 = 0.

O seguinte exemplo ilustra o fato de que a determinação do núcleo de

uma transformação linear, entre espaços vetoriais de dimensão �nita, recai

na determinação do conjunto solução de um sistema de equações lineares

homogêneo.

Exemplo 1. Seja T : R4 → R3 a transformação linear de�nida por

T (x, y, s, t) = (x− y + s+ t, x+ 2s− t, x+ y + 3s− 3t).

Para determinarmos KerT , devemos obter o conjunto de vetores (x, y, s, t)

em R4 tais que

T (x, y, s, t) = (x− y + s+ t, x+ 2s− t, x+ y + 3s− 3t) = (0, 0, 0).

Equivalentemente, KerT é o conjunto solução do seguinte sistema linear

homogêneo: x− y + s+ t = 0

x+ 2s− t = 0

x+ y + 3s− 3t = 0 .

Resolvendo o sistema acima, obtemos

KerT = {(−2s+ t,−s+ 2t, s, t) ; s, t ∈ R}.

Note que KerT é um subespaço vetorial de R4 de dimensão 2.

Inversamente, o conjunto solução de um sistema de equações lineares

homogêneo AX = 0, onde A = [aij], pode ser interpretado como o núcleo de

uma transformação linear. Mais precisamente, é o núcleo da transformação

linear T : Rn → Rm,

T (x1, . . . , xn) = (a11x1 + · · ·+ a1nxn, . . . , am1x1 + · · ·+ amnxn).

Page 136: MA33 - Introdução à Álgebra Linear

132 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

Se uma transformação linear T é injetiva, então a equação T (v) = 0 só

possui a solução v = 0. De fato, sendo T injetiva e como T (0) = 0, tem-se

que T (v) = 0 = T (0) implica que v = 0. Fato curioso, é que vale também a

recíproca desta propriedade, como mostraremos a seguir.

Proposição 5.2.1. Seja T : V → W uma transformação linear. Temos que

T é injetiva se, e somente se, KerT = {0}.Demonstração A implicação direta foi provada no comentário acima. Su-

ponhamos agora que KerT = {0}. Tomemos u e v vetores em V . Se T (u) =

T (v), então T (u) − T (v) = 0. Equivalentemente, T (u − v) = 0. Assim,

u − v ∈ KerT . Como KerT = {0}, segue-se que u − v = 0, logo u = v,

mostrando a injetividade de T . �

Por exemplo, a transformação linear do Exemplo 1 não é injetiva, pois

KerT 6= {(0, 0, 0, 0)}. Já a transformação linear dada por T (x, y)=(x−y, x+y),(x, y) ∈ R2, é injetiva, pois KerT = {(0, 0)}.

2.2 A Imagem

A imagem de T de uma transformação linear T : V → W é o conjunto

ImT = T (V ). Como T (0) = 0, temos que 0 ∈ ImT , logo ele é um subcon-

junto não vazio de W . Deixaremos como exercício para o leitor veri�car que,

de fato, ImT é um subespaço vetorial de W (veja Problema 2.1). A seguinte

proposição mostra como podemos determinar geradores para a imagem de

uma transformação linear.

Proposição 5.2.2. Seja T : V→W uma transformação linear. Se {v1, . . . , vn}é um conjunto de geradores de V , então {T (v1), . . . , T (vn)} é um conjunto

de geradores de ImT . Em particular, dim ImT ≤ dimV .

Demonstração Seja w ∈ ImT e tomemos v ∈ V tal que T (v) = w. Como

{v1, . . . , vn} gera V , v é uma combinação linear de v1, . . . , vn, digamos,

v = a1v1 + · · ·+ anvn.

Page 137: MA33 - Introdução à Álgebra Linear

2. NÚCLEO E IMAGEM 133

Pela linearidade de T (cf. (2) da Seção 1), temos que

w = T (v) = a1T (v1) + · · ·+ anT (vn),

ou seja, w é uma combinação linear de T (v1), . . . , T (vn). Como w é arbitrário

em ImT , segue que ImT = G(T (v1), . . . , T (vn)). �

Exemplo 2. Calculemos a imagem da transformação linear apresentada no

Exemplo 1.

Pela Proposição 5.2.2, devemos determinar o espaço gerado pela imagem

de um conjunto de geradores de R4. Vamos calcular, então, o espaço gerado

por

T (1, 0, 0, 0) = (1, 1, 1), T (0, 1, 0, 0) = (−1, 0, 1),T (0, 0, 1, 0) = (1, 2, 3) e T (0, 0, 0, 1) = (1,−1,−3).

Pelo Teorema 3.4.1, basta reduzir a matriz1 1 1

−1 0 1

1 2 3

1 −1 −3

à forma escalonada. Ora,

1 1 1

−1 0 1

1 2 3

1 −1 −3

−→

L2 → L2 + L1

L3 → L3 − L1

L4 → L4 − L1

1 1 1

0 1 2

0 1 2

0 −2 −4

−→

L3 → L3 − L2

L4 → L4 + 2L2

1 1 1

0 1 2

0 0 0

0 0 0

.

Assim, {(1, 1, 1), (0, 1, 2)} é uma base de ImT , ou seja,

ImT = {(x, x+ y, x+ 2y) ; x, y ∈ R}.

Page 138: MA33 - Introdução à Álgebra Linear

134 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

2.3 O Teorema do Núcleo e da Imagem

O seguinte resultado é um teorema importante que relaciona a dimensão

do núcleo à dimensão da imagem de uma transformação linear T : V → W ,

quando V tem dimensão �nita.

Teorema 5.2.3. (Teorema do Núcleo e da Imagem) Seja T : V → W

uma transformação linear, onde V tem dimensão �nita. Então

dimKerT + dim ImT = dimV. (1)

Demonstração Suponhamos que dimV = n. Seja α = {u1, u2, . . . , um}uma base de KerT . Como qualquer conjunto linearmente independente de

vetores em V tem no máximo n vetores (Teorema 3.3.3), segue que m ≤ n.

Vamos considerar dois casos:

Caso 1. m = n.

Neste caso, dimKerT = dimV e, consequentemente, pelo Teorema 3.3.6,

KerT = V . Isto implica que ImT = {0}, portanto, dim ImT = 0, mostrando

que a fórmula (1) é válida.

Caso 2. m < n.

Pelo Teorema 3.3.5, podemos completar α de modo a obtermos uma base

β de V , digamos β = {u1, u2, . . . , um, vm+1, . . . , vn}. Note que a fórmula (1) é

veri�cada se provarmos que {T (vm+1), . . . , T (vn)} é uma base de ImT . Pela

Proposição 5.2.2, temos que ImT = G(T (vm+1), . . . , T (vn)). Para provarmos

que esses vetores são linearmente independentes, consideremos a equação

bm+1T (vm+1) + · · ·+ bnT (vn) = 0,

que equivale a termos

bm+1vm+1 + · · ·+ bnvn ∈ KerT.

Como α é uma base de KerT , existem b1, b2, . . . , bm em R tais que

bm+1vm+1 + · · ·+ bnvn = b1u1 + b2u2 + · · ·+ bmum,

Page 139: MA33 - Introdução à Álgebra Linear

2. NÚCLEO E IMAGEM 135

ou seja,

b1u1 + b2u2 + · · ·+ bmum − bm+1vm+1 − · · · − bnvn = 0.

Sendo β uma base de V , a equação anterior se veri�ca somente se todos os

coe�cientes da combinação linear são iguais a zero. Em particular, bm+1 =

· · · = bn = 0. �

Em geral, para mostrarmos que uma função é bijetiva, devemos mostrar

que ela é injetiva e sobrejetiva. No entanto, se a função é uma transformação

linear entre espaços vetoriais de mesma dimensão �nita, então, exatamente

como no caso de funções entre conjuntos �nitos de mesma cardinalidade,

basta veri�car que ela ou é injetiva ou é sobrejetiva; a outra condição é

automaticamente satisfeita. Provaremos este fato a seguir com o auxílio do

teorema do núcleo e da imagem. Note que esse resultado não é consequência

do resultado para funções entre conjuntos �nitos, pois um espaço vetorial

sobre R, quando não nulo, é um conjunto in�nito.

Proposição 5.2.4. Seja T : V → W uma transformação linear entre es-

paços vetoriais de dimensão �nita. Se dimV = dimW , então as seguintes

a�rmações são equivalentes:

(i) T é injetiva;

(ii) T é sobrejetiva.

Demonstração Pelo Teorema do Núcleo e da Imagem,

dimKerT + dim ImT = dimV.

Sendo dimV = dimW , podemos escrever a igualdade acima como

dimKerT + dim ImT = dimW. (2)

Suponhamos que T seja injetiva. Pela Proposição 5.2.1, KerT = {0} e,

consequentemente, dimKerT = 0. Segue então, de (2), que dim ImT =

Page 140: MA33 - Introdução à Álgebra Linear

136 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

dimW , mostrando que T é sobrejetiva, já que, pelo Teorema 3.3.6, ImT =

W .

Suponhamos agora que T seja sobrejetiva, ou seja, ImT = W . Esses dois

espaços têm mesma dimensão, portanto, de (2) temos que dimKerT = 0, o

que garante que KerT = {0}. Pela Proposição 5.2.1, segue que T é injetiva.

Exemplo 3. Veri�quemos que a transformação linear T : M(2, 2) → R4,

dada por

T

([a b

c d

])= (a+ b, b+ c, c, a+ b+ d)

é uma função bijetiva.

Ora, como dimM(2, 2) = dimR4, segue, da Proposição 5.2.4, que basta

veri�carmos que T é uma função injetiva.

Como a igualdade

T

([a b

c d

])= (0, 0, 0, 0)

só ocorre quando a = b = c = d = 0, temos que KerT = {0}. Pela

Proposição 5.2.1, T é injetiva.

Observamos que a condição dimV = dimW , na Proposição 5.2.4, é ne-

cessária. De fato, consideremos a transformação linear T : R3 → R2 dada

por T (x, y, z) = (x, y). Temos que T é sobrejetiva, mas não é injetiva. Já a

transformação linear T : R2 → R3 dada por T (x, y) = (x, y, 0) é injetiva, mas

não é sobrejetiva.

Seja T : V → W uma transformação linear bijetiva. Logo, existe a função

inversa T−1 : W → V de T . A função T−1 é também uma transformação

linear . Com efeito, consideremos w1 e w2 emW e a em R. Como T é bijetiva,

existem únicos vetores v1 e v2 em V tais que T (v1) = w1 e T (v2) = w2.

Page 141: MA33 - Introdução à Álgebra Linear

2. NÚCLEO E IMAGEM 137

Portanto,

T−1(w1 + aw2) = T−1(T (v1) + aT (v2))

= T−1(T (v1 + av2))

= v1 + av2

= T−1(w1) + aT−1(w2).

Uma transformação linear bijetiva é chamada isomor�smo . Dois espaços

vetoriais que possuem um isomor�smo entre eles serão ditos isomorfos, o que,

em grego, signi�ca que possuem mesma forma. Os isomor�smos desempe-

nham um papel importante na Álgebra Linear.

Por exemplo, R4 eM(2, 2) são espaços vetoriais isomorfos, pois a função

T : R4 →M(2, 2) dada por

T (x, y, z, t) =

[x y

z t

]

é um isomor�smo.

Pelo Teorema 5.2.3, segue que se dois espaços vetoriais de dimensão �nita

são isomorfos, então eles têm a mesma dimensão. O próximo resultado mos-

tra que a recíproca desta a�rmação é também verdadeira, ou seja, espaços

vetoriais de mesma dimensão �nita são isomorfos.

Teorema 5.2.5. Se V e W são espaços vetoriais de dimensão n, então V e

W são isomorfos .

Demonstração Para provarmos que V eW são isomorfos, devemos mostrar

que existe uma transformação linear bijetiva de V emW . Para isto, tomemos

α = {v1, . . . , vn} e β = {w1, . . . , wn} bases de V eW , respectivamente. Dado

v ∈ V , podemos escrever de modo único

v = a1v1 + · · ·+ anvn,

com a1, . . . , an ∈ R.

Page 142: MA33 - Introdução à Álgebra Linear

138 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

De�na, então, T : V → W por T (v) = a1w1 + · · · + anwn. Pela de-

monstração do Teorema 5.1.1, T está bem de�nida e, além disso, T é uma

transformação linear.

Para provarmos que T é bijetiva basta provarmos, pela Proposição 5.2.4,

que T é injetiva. Ora, se v = a1v1 + · · ·+ anvn e

0 = T (v) = a1w1 + · · ·+ anwn,

segue-se que a1 = · · · = an = 0, pois {w1, . . . , wn} é uma base de W . Logo,

v = 0, mostrando que KerT = {0}. �

Dois espaços vetoriais V e W isomorfos são essencialmente o �mesmo

espaço vetorial�, exceto que seus elementos e suas operações de adição e

de multiplicação por escalar são escritas diferentemente. Assim, qualquer

propriedade de V que dependa apenas de sua estrutura de espaço vetorial

permanece válida em W , e vice-versa. Por exemplo, se T : V → W é um

isomor�smo de V em W , então {T (v1), . . . , T (vn)} é uma base de W se, e

somente se, {v1, . . . , vn} é uma base de V (veja Problema 2.4).

Exemplo 4. Seja W o subespaço deM(2, 2) gerado por

M1 =

[1 −5−4 2

], M2 =

[1 1

−1 5

], M3 =

[2 −4−5 7

]e M4 =

[1 −7−5 1

].

Vamos encontrar uma base e a dimensão de W .

Para encontrarmos uma base e a dimensão de W não usaremos a de�nição

de espaço gerado. Em vez disso, usaremos a noção de espaço linha, que

nos auxilia a exibir uma base de subespaços de Rn e, consequentemente, de

espaços vetoriais isomorfos a subespaços de Rn.

Ora, como T (x, y, t, z) =

[x y

t z

]é um isomor�smo de R4 em M(2, 2),

temos que W é isomorfo ao espaço G(v1, v2, v3, v4), onde v1 = (1,−5,−4, 2),v2 = (1, 1,−1, 5), v3 = (2,−4,−5, 7) e v4 = (1,−7,−5, 1). Temos que a

Page 143: MA33 - Introdução à Álgebra Linear

2. NÚCLEO E IMAGEM 139

matriz 1 −5 −4 2

1 1 −1 5

2 −4 −5 7

1 −7 −5 1

se reduz, pelas transformações elementares, à matriz

1 3 0 6

0 2 1 1

0 0 0 0

0 0 0 0

.Assim, α = {(1, 3, 0, 6), (0, 2, 1, 1)} é uma base de G(v1, v2, v3, v4) e, conse-

quentemente, α′ =

{[1 3

0 6

],

[0 2

1 1

]}é uma base de W , mostrando que

dimW = 2.

Note que, como consequência do Teorema 5.2.5, temos que todo espaço

vetorial não nulo de dimensão �nita n é isomorfo ao Rn. Dessa forma, o

estudo de espaços vetoriais de dimensão �nita pode se reduzir ao estudo

dos espaços Rn, mediante a escolha de algum isomor�smo. Assim, dado

um problema em um espaço vetorial de dimensão �nita n, reescrevemos o

problema para Rn, usando um isomor�smo, e o resolvemos neste contexto.

Com o isomor�smo utilizado, voltamos ao contexto original. Essa técnica foi

ilustrada no Exemplo 4. Um outro exemplo pode ser visto no Problema 2.6,

bem como no exemplo a seguir, em que são aplicados os conceitos de espaço

vetorial, base e dimensão, de modo a obter resultados não triviais.

Exemplo 5. Consideremos a recorrência R(1, 1), de�nida por

un+1 = un + un−1, n ≥ 2.

Vimos no Exemplo 2 da Seção 1, do Capítulo 1 e no Exemplo 5 da Seção

1, do Capítulo 3, que as sequências reais que satisfazem a esta recorrência

formam um espaço vetorial.

Page 144: MA33 - Introdução à Álgebra Linear

140 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

Observe que todo elemento (un) de R(1, 1) �ca totalmente determinado

se soubermos os valores de u1 e u2. Por exemplo, se u1 = u2 = 1, temos que

(un) é a sequência de Fibonacci.

De�namos a seguinte função:

T : R(1, 1) → R2

(un) 7→ (u1, u2) .

Note que T é uma transformação linear, pois se (un), (vn) ∈ R(1, 1) e c ∈ R,então

T ((un) + c(vn)) = T ((un + cvn))

= (u1 + cv1, u2 + cv2)

= (u1, u2) + c(v1, v2)

= T ((un)) + cT ((vn)).

Por outro lado, T é obviamente sobrejetora. T é também injetora, pois

os valores de u1 e u2 determinam univocamente a sequência (un) de R(1, 1).Logo, T é um isomor�smo de espaços vetoriais e, portanto, dimR(1, 1) =

2. Vamos determinar uma base de R(1, 1).Procuremos dentre as progressões geométricas (qn), com q 6= 0, aquelas

que satisfazem à recorrência R(1, 1). Essas devem satisfazer à condição

qn+1 = qn + qn−1.

Daí deduz-se que q deve satisfazer a equação

q2 − q − 1 = 0,

cujas raízes são

q1 =1 +√5

2, q2 =

1−√5

2.

Portanto, sendo (qn1 ) e (qn2 ) linearmente independentes (basta veri�car que

as imagens por T são linearmente independentes), eles formam uma base de

R(1, 1).

Page 145: MA33 - Introdução à Álgebra Linear

2. NÚCLEO E IMAGEM 141

Assim, todo elemento (un) de R(1, 1) é tal que

un = t1

(1 +√5

2

)n

+ t2

(1−√5

2

)n

, t1, t2 ∈ R. (3)

Portanto, dados u1 e u2, podemos determinar t1 e t2 resolvendo o sistema

de equações: {t1q1 + t2q2 = u1

t1q21 + t2q

22 = u2.

Em virtude das igualdades q21 = q1+1 e q22 = q2+1, este sistema é equivalente

ao sistema {t1q1 + t2q2 = u1

t1(q1 + 1) + t2(q2 + 1) = u2,

Por exemplo, para a sequência de Fibonacci, onde u1 = u2 = 1, resolvendo

o sistema acima, obtemos t1 = 1/√5 e t2 = −1/

√5, que substituídos em (3)

nos dão a seguinte fórmula para o termo geral da sequência de Fibonacci:

un =

(1+√5

2

)n−(

1−√5

2

)n√5

.

Finalizaremos esta seção com mais uma aplicação do Teorema do Núcleo

e da Imagem.

Exemplo 6. Determinaremos uma fórmula para a dimensão da soma de

dois subespaços de um espaco vetorial.

Sejam U e W subespaços vetoriais de dimensão �nita de um espaço ve-

torial V . Considere a transformação linear

T : U ×W → V

(u,w) 7→ u+ w

É fácil veri�car que a imagem de T é o subespaço U + W e que KerT é

isomorfo a U ∩W (veja Problema 2.5). Logo, pelo Teorema do Núcleo e da

Imagem e pelo Problema 3.15, do Capítulo 3, temos que

dimU + dimW = dimU ×W = dimKerT + dim ImT

= dim(U ∩W ) + dim(U +W ).

Page 146: MA33 - Introdução à Álgebra Linear

142 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

Assim, temos que

dim(U +W ) = dimU + dimW − dim(U ∩W ).

Problemas

2.1* Prove que a imagem de uma transformação linear T : V → W é um

subespaço vetorial de W .

2.2* Dada a transformação linear T (x, y, z) = (x+2y− z, y+2z, x+3y+ z)

em R3:

(a) Veri�que que KerT é uma reta que passa pela origem;

(b) Determine as equações paramétricas da reta obtida em (a);

(c) Veri�que que ImT é um plano que passa pela origem;

(d) Determine as equações paramétricas do plano obtido em (c).

2.3 Explique por que não existe nenhuma transformação linear sobrejetiva

T : V → W , quando dimV < dimW .

2.4* Seja T : V → W um isomor�smo. Prove que {v1, . . . , vn} é uma base

de V se, e somente se, {T (v1), . . . , T (vn)} for uma base de W .

2.5 Sejam U e W subespaços de um espaço vetorial V . Considere a função

T : U ×W → V , de�nida por T (u,w) = u+ w. Mostre que:

(a) T é uma transformação linear;

(b) A imagem de T é o subespaço U +W ;

(c) KerT = {(u,−u); u ∈ U ∩W} é isomorfo a U ∩W .

2.6* Determine a dimensão do subespaço de R[x]3, de�nido por

{p(x) = ax3 + bx2 + cx+ d ; p(−1) = 0}.

2.7 Determine o núcleo e a imagem das seguintes transformações lineares:

(a) T : R3 → R2, onde T (x, y, z) = (x− y, x− z);

Page 147: MA33 - Introdução à Álgebra Linear

2. NÚCLEO E IMAGEM 143

(b) T : R4→R3, onde T (x, y, z, w)=(2x+y− z+w, x+2y−w, 6x+2z−3w);

(c) T : R[x]→ R[x], onde T (p(x)) = x · p(x);

(d) T :M(2, 2)→M(2, 2), onde T (A) =M · A, sendo M =

[1 −1−4 4

];

(e) T : R[x]2 → R4, onde T (ax2 + bx+ c) = (a+ b, 2b+ c, a+ 2b− c, c).

2.8 Determine quais das transformações lineares do exercício anterior são

injetivas e quais são sobrejetivas.

2.9 Dada uma transformação linear T : V → W , mostre que:

(a) se é sobrejetiva, então dimW ≤ dimV ;

(b) se é injetiva, então dimV ≤ dimW .

2.10 Encontre uma transformação linear T : R3 → R3 cujo núcleo seja gerado

por (1, 2,−1) e (−1, 1, 0).

2.11 Encontre uma transformação linear T : R4 → R3 cujo núcleo seja gerado

por (1, 2, 3, 4) e (0, 1, 1, 1).

2.12 Encontre uma transformação linear T : R3 → R3 cuja imagem seja

gerada por (1, 2, 3) e (0, 1,−1).

2.13 Encontre uma transformação linear T : R3 → R4 cuja imagem seja

gerada por (1, 3,−1, 2) e (1, 0, 1,−1).

2.14 Seja T : R3 → V uma transformação linear de R3 em um espaço vetorial

V qualquer. Mostre que o núcleo de T é todo o R3, um plano pela origem,

uma reta pela origem, ou só a origem.

2.15 Seja T : V → R3 uma transformação linear de um espaço vetorial V

qualquer em R3. Mostre que a imagem de T é só a origem, uma reta pela

origem, um plano pela origem, ou todo o R3.

2.16 Dê, quando possível, exemplos de transformações lineares T satisfa-

zendo:

(a) T : R3 → R2 sobrejetiva;

(b) T : R4 → R2 com KerT = {(0, 0, 0, 0)};

Page 148: MA33 - Introdução à Álgebra Linear

144 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

(c) T : R3 → R3 com ImT = {(0, 0, 0)};(d) T : R3 → R4 com KerT = {(x, y,−x) ; x ∈ R}.

2.17 Seja T : V → R uma transformação linear não nula. Prove que existe

um vetor v ∈ V tal que T (v) = 1. Seja W o subespaço de V gerado pelo

vetor v. Prove que V = W ⊕KerT .

2.18 Sejam W1 e W2 subespaços de um espaço vetorial V tais que dimW1 +

dimW2 = dimV . Mostre que existe uma transformação linear T : V → V

tal que KerT = V1 e ImT = W2.

2.19 Considere a transformação linear T : R3 → R3 dada por

T (x, y, z) = (3x+ y,−2x− 4y + 3z, 5x+ 4y − 2z).

Determine se T é invertível. Em caso a�rmativo, encontre T−1.

2.20 Seja T : Rn → Rn a transformação linear dada por

T (x1, x2, . . . , xn) = (a1x1, a2x2, . . . , anxn).

(a) Sob quais condições sobre a1, a2, . . . , an, a função T é invertível?

(b) Supondo satisfeitas as condições determinadas em (a), encontre T−1.

2.21 Seja T : R2 → R2 a transformação linear dada por

T (x, y) = (x+ ky,−y).

Prove que T é injetiva e que T−1 = T , para cada valor real de k.

2.22 Ache um isomor�smo entre o espaço vetorial V das matrizes simétricas

n× n e o espaço vetorial W das matrizes triangulares inferiores n× n.

3 Operações com Transformações Lineares

Nesta seção, apresentaremos as operações usuais com as transformações

lineares, obtendo novas transformações lineares a partir de transformações

lineares dadas.

Page 149: MA33 - Introdução à Álgebra Linear

3. OPERAÇÕES COM TRANSFORMAÇÕES LINEARES 145

Sejam T : V → W e S : V → W transformações lineares. De�nimos a

soma de T e S, denotada por T + S, como a função T + S : V → W dada

por

(T + S)(v) = T (v) + S(v), (1)

para todo v ∈ V . Se k ∈ R, de�nimos o produto de k por T , denotando-o

kT , como a função kT : V → W dada por

(kT )(v) = kT (v), (2)

para todo v ∈ V . As funções T+S e kT são, de fato, transformações lineares,

pois para qualquer a em R e para quaisquer v1 e v2 em V temos que

(T + S)(v1 + av2) = T (v1 + av2) + S(v1 + av2)

= T (v1) + aT (v2) + S(v1) + aS(v2)

= [T (v1) + S(v1)] + a[T (v2 + S(v2)]

= (T + S)(v1) + a(T + S)(v2)

e

(kT )(v1 + av2) = kT (v1 + av2) = k[T (v1) + aT (v2)]

= kT (v1) + akT (v2)

= (kT )(v1) + a(kT )(v2).

Denotemos por (V,W ) o conjunto de todas as transformações lineares de

V em W . As operações descritas em (1) e (2) de�nem uma adição e uma

multiplicação por escalar em (V,W ), tornando-o um espaço vetorial (veja

Problema 3.4). Se W = R, o espaço (V,R) é chamado espaço dual de V e

seus elementos chamados de funcionais lineares em V .

A composição de duas transformações lineares T : V → W e S : W → U

é a composição usual de funções:

(S ◦ T )(v) = S(T (v)), v ∈ V.

Page 150: MA33 - Introdução à Álgebra Linear

146 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

A função S◦T é também uma transformação linear. Com efeito, se v1, v2 ∈ Ve se a ∈ R, então

(S ◦ T )(v1 + av2) = S(T (v1 + av2)) = S(T (v1) + aT (v2))

= S(T (v1)) + aS(T (V2)) = (S ◦ T )(v1) + a(S ◦ T )(v2).

Exemplo 1. Sejam T : R3 → R3 e S : R3 → R3 transformações lineares

dadas por

T (x, y, z) = (2x, x− y, y + z) e S(x, y, z) = (x+ 2z, y,−z).

Determinaremos T + S, 2S e T ◦ S.Temos

(T + S)(x, y, z) = T (x, y, z) + S((x, y, z))

= (2x, x− y, y + z) + (x+ 2z, y,−z)= (3x+ 2z, x, y),

(2S)(x, y, z) = 2S(x, y, z) = 2(x+ 2z, y,−z) = (2x+ 4z, 2y,−2z)

e

(T ◦S)(x, y, z) = T (S(x, y, z)) = T (x+2z, y,−z) = (2x+4z, x−y+2z, y−z).

Sejam T : V → V uma transformação linear e n ∈ N \ {0}. De�nimos

a n-ésima potência de T , denotando-a por T n, como a função T n : V → V

dada por

T n = T ◦ · · · ◦ T︸ ︷︷ ︸n vezes

.

Pelo que vimos anteriormente, T n é uma transformação linear. De�nimos T 0

como a função identidade em V , ou seja,

T 0 = IV .

Se T : V → V é um isomor�smo, a transformação linear T−n : V → V é

de�nida por

T−n = T−1 ◦ · · · ◦ T−1︸ ︷︷ ︸n vezes

.

Page 151: MA33 - Introdução à Álgebra Linear

3. OPERAÇÕES COM TRANSFORMAÇÕES LINEARES 147

O próximo resultado, cuja demonstração é deixada como exercício (veja

Problema 3.9), relaciona a composição com a adição e a multiplicação por

escalar de transformações lineares.

Proposição 5.3.1. Sejam T e T ′ transformações lineares de V em W e

sejam S e S ′ transformações lineares de W em U . Então:

(a) S ◦ (T + T ′) = S ◦ T + S ◦ T ′;(b) (S + S ′) ◦ T = S ◦ T + S ′ ◦ T ;(c) k(S ◦ T ) = (kS) ◦ T = S ◦ (kT ), onde k ∈ R.

Problemas

3.1* Considere a transformação linear T : R3 → R4 dada por T (x, y, z) =

(x + y, z, x − y, y + z). Calcule (T ◦ S)(x, y), onde S : R2 → R3 é dada por

S(x, y) = (2x+ y, x− y, x− 3y).

3.2 Sejam T : V → W e S : V → W transformações lineares entre espaços

vetoriais de mesma dimensão. Se S◦T = IV , prove que T ◦S = IW e S = T−1.

3.3 Sejam T : R2 → R2 e S : R2 → R2 transformações lineares dadas por

T (x, y) = (x+ y, 0) e S(x, y) = (−y, x). Encontre expressões para de�nir:

(a) T + S; (b) 5T − 4S; (c) S ◦ T ;

(d) T ◦ S; (e) T 3; (f) S−3.

3.4 Prove que (V,W ), com as operações dadas em (1) e (2), é um espaço

vetorial.

3.5 Mostre que as seguintes transformações lineares T, S e Q são linearmente

independentes:

(a) T, S,Q ∈ (R3,R2), de�nidas por T (x, y, z) = (x+y+z, x+y), S(x, y, z) =

(2x+ z, x+ y) e Q(x, y, z) = (2y, x);

(b) T, S,Q ∈ (R3,R), de�nidas por T (x, y, z) = x+ y + z, S(x, y, z) = y + z

e Q(x, y, z) = x− z.

Page 152: MA33 - Introdução à Álgebra Linear

148 CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

3.6 Seja T : V → V uma transformação linear. Prove que T 2 = 0 se, e

somente se, ImT ⊂ KerT .

3.7 Prove que se T : V → V e S : V → V são transformações lineares não

nulas tais que T ◦ S = 0, então T não é injetiva.

3.8 Dada a transformação linear T (x, y, z) = (ay + bz, cz, 0) de R3 em R3,

mostre que T 3 = 0.

3.9 Prove a Proposição 5.3.1.

3.10 Dada a transformação linear T (x, y) = (ac+ by, cx+ dy) de R2 em R2,

mostre que:

(a) T 2 − (a+ d)T = (bc− ad) IR2 ;

(b) Se ad− bc 6= 0, então existe uma transformação linear S de R2 em R2 tal

que S ◦ T = T ◦ S = IR2 .

3.11 Seja T : W → U uma transformação linear injetiva. Prove que se

S1, S2 ∈ (V,W ) satisfazem a igualdade T ◦ S1 = T ◦ S2, então S1 = S2.

3.12 Seja T : V → W uma transformação linear sobrejetiva. Prove que se

S1, S2 ∈ (W,U) satisfazem a igualdade S1 ◦ T = S2 ◦ T , então S1 = S2.

3.13 Prove que se T : V → V é uma transformação linear tal que T 2 = 0,

então a transformação IV −T é invertível.

3.14 Seja V um espaço vetorial. Suponhamos que V = W1 ⊕ · · · ⊕ Ws .

Considere a função T : V → V de�nida por T (v) = wi , onde v = w1 + · · ·+wi + · · ·+ ws , com wi ∈ Wi, para cada 1 ≤ i ≤ s. Mostre que:

(a) T é uma transformação linear; (b) T 2 = T .

A transformação T é chamada de projeção de V em seu subespaço vetorial

Wi.

3.15 Seja T : V→V uma transformação linear tal que T 2=T . Mostre que:

(a) T (v) = v para todo v ∈ Im T ;

(b) V = KerT ⊕ Im T ;

(c) T é a projeção de V em sua imagem.

Page 153: MA33 - Introdução à Álgebra Linear

3. OPERAÇÕES COM TRANSFORMAÇÕES LINEARES 149

3.16 Seja T : V → V uma transformação linear. Mostre que T é uma proje-

ção se, e somente se, T 2 = T .

3.17 Sejam T e S duas transformações lineares entre os espaços vetoriais de

dimensão �nita V e W . Mostre que:

(a) Se KerT = KerS, então existe um isomor�smo T1 : W → W tal que

S = T1 ◦ T ;(b) Se ImT = ImS, então existe um isomor�smo T2 : V → V tal que S =

T ◦ T2.

Page 154: MA33 - Introdução à Álgebra Linear

Bibliogra�a

[1] H. P. Bueno, Álgebra Linear, um segundo curso , Coleção Textos Univer-

sitários, SBM, 2006.

[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,

2001.

[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-

mática e Aplicações, IMPA, 2008.

[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção

PROFMAT, SBM, 2012.

[5] V. J. Katz, A History of Mathematics - an Introduction , HarperCollins

College Publishers, 1993.

[6] S. Lang, Introduction to Linear Algebra , 2nd edition, Undergraduate Texts

in Mathematics, Springer, 1986.

[7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária,

IMPA, 1998.

[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção

Matemática Universitária, IMPA, 2010.

300

Page 155: MA33 - Introdução à Álgebra Linear

6

150

Livro: Introdução à Álgebra LinearAutores: Abramo Hefez

Cecília de Souza Fernandez

Capítulo 6: Transformações Lineares eMatrizes

Sumário

1 Matriz de uma Transformação Linear . . . . . . . 151

2 Operações com Transformações Lineares e Ma-

trizes . . . . . . . . . . . . . . . . . . . . . . . . . . . 158

3 Operadores Lineares em R2 e em R3 . . . . . . . . 163

4 Mudança de Base e Matrizes Semelhantes . . . . 171

Page 156: MA33 - Introdução à Álgebra Linear

1. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR 151

Neste capítulo, mostramos como associar matrizes a transformações line-

ares, reduzindo as operações com transformações lineares a operações com

matrizes, o que permite ganhar computabilidade.

1 Matriz de uma Transformação Linear

Nesta seção, veremos que se V e W são espaços vetoriais de dimensão

�nita, com bases �xadas, então uma transformação linear T : V → W pode

ser representada por uma matriz. A vantagem de uma tal representação é

que muitos problemas associados às transformações lineares entre espaços

de dimensão �nita podem ser resolvidos com a teoria das matrizes, como

veremos na próxima seção e nos capítulos a seguir.

Seja T : V→W uma transformação linear, em que dimV=n e dimW=m.

Sejam α = {v1, v2, . . . , vn} e β = {w1, w2, . . . , wm} bases de V e W , respec-

tivamente. Como β é uma base de W , podemos determinar de modo único

números reais aij, com 1 ≤ i ≤ n, 1 ≤ j ≤ m, tais que

T (vi) = a1iw1 + · · ·+ ajiwj + · · ·+ amiwm. (1)

Tomemos agora v em V . Temos que v = k1v1 + · · · + knvn, em que ki ∈ Rpara 1 ≤ i ≤ n. Pela linearidade de T e por (1), segue que

T (v) = k1T (v1) + · · ·+ knT (vn)

= k1(a11w1 + · · ·+ am1wm) + · · ·+ kn(a1nw1 + · · ·+ amnwm)

= (a11k1 + · · ·+ a1nkn)w1 + · · ·+ (am1k1 + · · ·+ amnkn)wm.

Logo,

[T (v)]β =

a11k1 + · · ·+ a1nkn...

am1k1 + · · ·+ amnkn

=

a11 · · · a1n...

...

am1 · · · amn

k1...kn

= [T ]αβ · [v]α,

(2)

Page 157: MA33 - Introdução à Álgebra Linear

152 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES

onde de�nimos

[T ]αβ =

a11 · · · a1n...

...

am1 · · · amn

.A matriz [T ]αβ , que representa T em relação às bases α e β, é chamada a

matriz de T nas bases α e β. Por (2), temos a expressão

[T (v)]β = [T ]αβ · [v]α para todo v em V . (3)

Observemos que [T ]αβ é uma matriz de ordem m × n tal que, para cada

1 ≤ i ≤ n, a i-ésima coluna de [T ]αβ é dada pelas coordenadas de T (vi) na

base β.

Exemplo 1. Sejam α = {(1, 1), (0, 2)} e β = {(1, 0, 1), (0, 1, 0), (1, 2, 0)},bases de R2 e R3, respectivamente. Calculemos [T ]αβ , onde T : R2 → R3 é

dada por T (x, y) = (2x, x− y, 2y).Como T é uma transformação linear de R2 em R3, [T ]αβ é uma matriz

3× 2, digamos

[T ]αβ =

a11 a12

a21 a22

a31 a32

.Pelo que vimos, a11, a21 e a31 são as coordenadas de T (1, 1) na base β e

a12, a22 e a32 são as coordenadas de T (0, 2) na base β. Ou seja,

T (1, 1) = (2, 0, 2) = a11(1, 0, 1) + a21(0, 1, 0) + a31(1, 2, 0)

e

T (0, 2) = (0,−2, 4) = a12(1, 0, 1) + a22(0, 1, 0) + a32(1, 2, 0).

Equivalentemente,a11 + a31 = 2

a21 + 2a31 = 0

a11 = 2

e

a12 + a32 = 0

a22 + 2a32 = −2

a12 = 4 .

Page 158: MA33 - Introdução à Álgebra Linear

1. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR 153

Resolvendo os sistemas lineares acima, obtemos

a11 = 2, a21 = 0, a31 = 0, a12 = 4, a22 = 6 e a32 = −4.

Portanto,

[T ]αβ =

2 4

0 6

0 −4

.No exemplo anterior, determinamos [T ]αβ a partir da transformação linear

T . No próximo exemplo, vamos considerar o problema inverso: dada a matriz

[T ]αβ , determinar T a partir desta matriz.

Exemplo 2. Sejam α e β as bases dadas no Exemplo 1. Determine a

transformação linear T : R2 → R3 tal que

[T ]αβ =

1 0

1 2

0 1

.Para determinar T usaremos a expressão (3). Assim, computemos inici-

almente [v]α.

Ora, se (x, y) ∈ R2, então

(x, y) = x(1, 1) +

(y − x2

)(0, 2),

o que nos dá

[(x, y)]α =

xy − x2

.Portanto,

[T (x, y)]β =

1 0

1 2

0 1

xy − x2

=

x

yy − x2

e, consequentemente,

Page 159: MA33 - Introdução à Álgebra Linear

154 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES

T (x, y) = x(1, 0, 1) + y(0, 1, 0) +

(y − x2

)(1, 2, 0)

=

(y + x

2, 2y − x, x

).

O Exemplo 2 pode ser resolvido por um outro método. De fato, sabemos

que, na base β, a primeira coluna de [T ]αβ nos dá as coordenadas de T (1, 1)

e a segunda coluna nos dá as coordenadas de T (0, 2).

Assim,

T (1, 1) = 1(1, 0, 1) + 1(0, 1, 0) + 0 · (1, 2, 0) = (1, 1, 1)

e

T (0, 2) = 0 · (1, 0, 1) + 2(0, 1, 0) + 1(1, 2, 0) = (1, 4, 0).

Para (x, y) ∈ R2 arbitrário, temos

(x, y) = x(1, 1) +

(y − x2

)(0, 2).

Agora, pela linearidade de T , segue que

T (x, y) = x(1, 1, 1) +

(y − x2

)(1, 4, 0)

=

(y + x

2, 2y − x, x

),

como encontrado anteriormente.

Quando a transformação linear for de um espaço vetorial V nele mesmo,

ela será chamada de operador em V .

Exemplo 3. Consideremos o operador identidade em um espaço vetorial V ;

isto é, o operador de�nido por IV (v) = v para todo v ∈ V .Tem-se que [IV ]

αα é a matriz identidade de ordem n. De fato, para cada

1 ≤ j ≤ n, a j-ésima coluna de [IV ]αα é dada pelas coordenadas de IV (vj) na

base α. Mas, para cada 1 ≤ j ≤ n,

IV (vj) = vj = 0v1 + · · ·+ 0vj−1 + 1vj + 0vj+1 + · · ·+ 0vn,

Page 160: MA33 - Introdução à Álgebra Linear

1. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR 155

o que implica que [IV ]αα é a matriz identidade de ordem n:

[IV ]αα =

1 · · · 0 · · · 0

0 0 0...

......

0 · · · 1 · · · 0...

......

0 · · · 0 · · · 1

.

↑ ↑ ↑coordenadas coordenadas coordenadas

de IV (v1) de IV (vj) de IV (vn)

na base α na base α na base α

Seja T : V → W uma transformação linear entre espaços vetoriais de

dimensão �nita. Vimos que, uma vez �xadas bases α e β de V e W , res-

pectivamente, existe uma única matriz [T ]αβ que representa T nessas bases.

Uma pergunta natural é o que ocorre com a matriz [T ]αβ se diferentes bases

são escolhidas. Consideremos a transformação linear dada no Exemplo 1. Se

α e β são as bases canônicas de R2 e R3, respectivamente, então

[T ]αβ =

2 0

1 −10 2

.Assim, podemos ter matrizes diferentes representando uma mesma trans-

formação linear. Isto deixa bastante claro que, embora uma transformação

linear T : V → W não dependa de bases particulares escolhidas para V e W ,

a matriz associada depende dessas bases.

Terminamos esta seção observando que escolhidas bases quaisquer α e β

de Rn e Rm, respectivamente, uma matriz A ∈ M(m,n) de�ne uma trans-

formação linear T : Rn → Rm como segue:

[T (v)]β = A · [v]α, v ∈ Rn.

Page 161: MA33 - Introdução à Álgebra Linear

156 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES

Mais ainda, tem-se que [T ]αβ = A (veja Problema 1.2).

Em particular, se α e β são as bases canônicas de Rn e Rm, respectiva-

mente, então a transformação linear T é chamada transformação multiplica-

ção por A, sendo representada por TA.

Exemplo 4. Seja A = [aij] uma matriz de ordem m× n. Temos que

TA(x1, . . . , xn) =

a11 a12 . . . a1n

a21 a22 . . . a2n...

......

am1 am2 . . . amn

x1

x2...

xn

=

a11x1 + a12x2 + · · ·+ a1nxn

a21x1 + a22x2 + · · ·+ a2nxn...

am1x1 + am2x2 + · · ·+ amnxn

= x1w1 + x2w2 + · · ·+ xnwn,

onde w1, . . . , wn são os vetores colunas da matriz A.

Assim, temos que ImTA é o subespaço de Rm gerado pelas colunas da

matriz A, chamado espaço coluna de A e denotado por C(A). Por outro

lado, o núcleo KerTA de TA é o conjunto solução Sh(A) do sistema linear

homogêneo AX = 0.

Problemas

1.1 Dadas duas transformações lineares T, T ′ : V → W e bases α e β de V e

W , respectivamente, mostre que se [T ]αβ = [T ′]αβ , então T = T ′.

1.2* Sejam dados dois espaços vetoriais V e W de dimensões n e m, respec-

tivamente. Seja α uma base de V e β uma base de W . Dada uma matriz

A ∈M(m,n), considere a função T : V → W de�nida por

[T (v)]β = A[v]α, v ∈ V.

Page 162: MA33 - Introdução à Álgebra Linear

1. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR 157

Mostre que:

(a) T é uma transformação linear;

(b) [T ]αβ = A.

1.3 Sejam A e B matrizes emM(m,n) e β uma base de um espaço vetorial

V . Mostre que se A[v]β = B[v]β para todo v ∈ V , então A = B.

1.4* Sejam T : Rn → Rm uma transformação linear e α e β bases de Rn e de

Rm, respectivamente. Se r é o posto da matriz [T ]αβ , mostre que

dim ImT = r e dimKerT = n− r.

1.5 Dadas as bases α = {(1, 1, 1), (0, 1, 0), (0, 1, 1)} de R3 e β = {(1, 2), (0, 1)}de R2, ache a transformação linear T : R3 → R2 tal que

[T ]αβ =

[1 0 2

−1 −1 1

].

1.6 Dado o operador linear T : R3 → R3, T (x, y, z) = (x−y, y−x, x−z), en-contre [T ]αβ , onde α é a base canônica de R3 e β = {(1, 0, 1), (0, 1, 1), (1, 1, 0)}.

1.7 Seja T : R3 → R3 a multiplicação pela matriz 1 3 4

3 4 7

−2 2 0

.(a) Mostre que KerT é uma reta que passa pela origem e encontre as equações

paramétricas desta reta.

(b) Mostre que ImT é um plano que passa pela origem e encontre a equação

cartesiana deste plano.

1.8 Dado o operador linear T (x, y, z) = (x− 2y+ z,−x+4y− 2z, x) em R3,

com base α = {(1, 0,−1), (0, 1, 2), (1, 2, 0)}, encontre uma base β de R3 tal

Page 163: MA33 - Introdução à Álgebra Linear

158 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES

que

[T ]αβ =

1 0 0

0 0 0

0 0 1

.1.9 Seja T : R[x]2 → R[x]2 a transformação linear T (p(x)) = p(2x + 1)

(veja Exemplo 6, Seção 1, Capítulo 5). Encontre [T ]ββ em relação à base

β = {1, x, x2}.

1.10 Suponha que V e W tenham dimensão �nita. Mostre a matriz, em

quaisquer bases de V e de W , da transformação nula 0: V → W é a matriz

nula.

1.11 Seja α = {v1, v2, v3, v4} uma base de um espaço vetorial V . Encontre a

matriz [T ]αα da transformação linear T : V → V de�nida por

T (v1) = v2, T (v2) = v3, T (v3) = v4 e T (v4) = v1.

1.12 Seja T : R2 →M(2, 2) a transformação linear de�nida por

[T ]αβ =

1 −2−1 0

2 1

1 −1

,onde α e β são as bases canônicas de R2 eM(2, 2), respectivamente.

(a) Determine os vetores v ∈ R2 tais que T (v) = I2;

(b) Determine T (3,−1).

2 Operações com Transformações Lineares e Ma-

trizes

Sejam T e T ′ transformações lineares de V emW . Sejam α = {v1, . . . , vn}e β = {w1, . . . , wm} bases de V em W , respectivamente. Estamos interessa-

dos em veri�car se existe alguma relação entre as matrizes [T + T ′]αβ , [T ]αβ e

Page 164: MA33 - Introdução à Álgebra Linear

2. OPERAÇÕES COMTRANSFORMAÇÕES LINEARES EMATRIZES159

[T ′]αβ . Notemos que se 1 ≤ j ≤ n, então

[(T + T ′)(vj)]β = [T (vj) + T ′(vj)]β = [T (vj)]β + [T ′(vj)]β,

mostrando que a j-ésima coluna de [T + T ′]αβ é a soma da j-ésima coluna de

[T ]αβ com a j-ésima coluna de [T ]αβ . Demonstramos assim o seguinte resultado:

Proposição 6.2.1. Sejam T e T ′ transformações lineares de V em W , onde

V e W são espaços vetoriais de dimensão �nita. Se α e β são bases de V e

W , respectivamente, então

[T + T ′]αβ = [T ]αβ + [T ′]αβ .

Deixamos como exercício para o leitor (veja Problema 2.3) demonstrar a

próxima proposição, que é um resultado análogo ao anterior para a multipli-

cação por escalar de transformações lineares.

Proposição 6.2.2. Seja T : V → W uma transformação linear, onde V e

W são espaços vetoriais de dimensão �nita. Se α e β são bases de V e W ,

respectivamente, então

[kT ]αβ = k[T ]αβ ,

onde k é um número real arbitrário .

Decorre, das duas proposições acima, que [T+kT ′]αβ = [T ]αβ+k[T′]αβ , o que

mostra, em virtude dos Problemas 1.1 e 1.2, da Seção 1, que dados espaços

vetoriais V e W , de dimensões respectivamente, n e m, e �xadas bases α de

V e β de W , a aplicação

L(V,W ) → M(m,n)

T 7→ [T ]αβ

é um isomor�smo de espaços vetoriais. Portanto, temos que

dimL(V,W ) = dimM(m,n) = nm.

No próximo resultado veremos que a composta de duas transformações

lineares pode ser representada por um produto de matrizes. Esta é uma das

principais razões da importância do estudo de matrizes.

Page 165: MA33 - Introdução à Álgebra Linear

160 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES

Proposição 6.2.3. Sejam T : V → W e S : W → U transformações lineares,

em que V,W e U são espaços vetoriais de dimensão �nita. Se α, β e γ são

bases de V,W e U , respectivamente, então

[S ◦ T ]αγ = [S]βγ · [T ]αβ . (1)

Demonstração Consideremos α = {v1, . . . , vn}. Denotemos por Cj(M) a

j-ésima coluna de uma matriz M arbitrária. Se A e B são matrizes para as

quais a matriz AB está de�nida, segue da de�nição de produto que

Cj(AB) = A · Cj(B). (2)

Para demonstrar (1) basta provar que, para cada j, com 1 ≤ j ≤ n, tem-se

que Cj([S ◦ T ]αγ ) = Cj([S]βγ · [T ]αβ). Ora, �xe um índice j. De (2), segue que

Cj([S]βγ · [T ]αβ) = [S]βγ · Cj([T ]αβ) = [S]βγ · [T (vj)]β.

Por outro lado, de (3), da Seção 1, segue que

Cj([S ◦ T ]αγ ) = [(S ◦ T )(vj)]γ = [S(T (vj))]γ = [S]βγ · [T (vj)]β,

o que prova o desejado. �

Exemplo 1. Sejam T : R2 → R3 e S : R3 → R2 transformações lineares

cujas matrizes são

[T ]αβ =

1 0

2 1

−1 1

e [S]βγ =

[1 0 1

0 0 1

],

sendo α = {(1, 0), (1, 1)}, β = {(1, 1, 1), (1, 0, 1), (0, 0, 1)} e γ = {(1, 0), (0, 2)}.Vamos encontrar a transformação linear S ◦ T .

Para determinarmos S ◦ T , vamos primeiramente determinar [S ◦ T ]αγ .Pela Proposição 6.2.3,

[S ◦ T ]αγ =

[1 0 1

0 0 1

] 1 0

2 1

−1 1

=

[0 1

−1 1

].

Page 166: MA33 - Introdução à Álgebra Linear

2. OPERAÇÕES COMTRANSFORMAÇÕES LINEARES EMATRIZES161

Agora por (3), da Seção 1, temos que, para qualquer (x, y) ∈ R2,

[(S ◦ T )(x, y)]γ =

[0 1

−1 1

][(x, y)]α

=

[0 1

−1 1

][x− yy

]

=

[y

2y − x

]e, consequentemente,

(S ◦ T )(x, y) = y(1, 0) + (2y − x)(0, 2) = (y, 4y − 2x).

Vimos que se T é uma transformação linear bijetiva, T−1 é também uma

transformação linear. O resultado a seguir, que é uma consequência da Pro-

posição 6.2.3, nos apresenta uma relação entre as matrizes que representam

T e T−1, quando �xadas bases do domínio e do contradomínio de T .

Teorema 6.2.4. Seja T : V → W um isomor�smo, onde V e W são espaços

vetoriais de dimensão �nita. Se α é uma base de V e β é uma base de W ,

então

[T−1]βα = ([T ]αβ)−1.

Demonstração Como T−1 é a inversa de T , temos que T−1 ◦ T é a função

identidade em V , ou seja,

T−1 ◦ T = IV .

Pela Proposição 6.2.3,

[IV ]αα = [T−1 ◦ T ]αα = [T−1]βα · [T ]αβ . (3)

Se dimV = n, pelo Exemplo 3, da Seção 1, temos que [IV ]αα é a matriz

identidade de ordem n. Assim, de (3), segue-se que [T ]αβ é invertível e sua

inversa é a matriz [T−1]βα. �

Corolário 6.2.5. Seja T : V → W uma transformação linear, onde V e W

são espaços vetoriais de mesma dimensão �nita. Sejam α e β bases de V

Page 167: MA33 - Introdução à Álgebra Linear

162 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES

e W , respectivamente. Temos que T é invertível se, e somente se, a matriz

[T ]αβ é invertível.

Demonstração Uma implicação resulta de (3). A outra, do fato que a

transformação linear L(V,W ) → M(n, n), onde n = dimV = dimW , é

sobrejetora e transforma composição de transformações lineares em produtos

de matrizes.

Exemplo 2. Seja T : R2 → R2 a transformação linear dada por T (x, y) =

(4x − 3y,−2x + 2y). Vamos veri�car que T é invertível e vamos encontrar

T−1.

Para veri�carmos que T é invertível, podemos calcular KerT e usar a

Proposição 5.2.4, ou, ainda, podemos calcular [T ]αα, onde α é uma base qual-

quer de R2, e usar o Corolário 6.2.5. Vamos aqui optar pelo segundo método.

Ora, se α é a base canônica de R2, então

[T ]αα =

[4 −3−2 2

].

Utilizando a técnica exposta logo após a Proposição 2.1.7, podemos veri�car

que a matriz acima é invertível e a sua inversa é a matriz[1 3/2

1 2

].

Portanto, devido ao Teorema 6.2.4, temos que

[T−1]αα = ([T ]αα)−1 =

[1 3/2

1 2

].

A transformação linear T−1 é, então, determinada usando a fórmula (3) da

Seção 1, como segue:

[T−1(x, y)]α = [T−1]αα [(x, y)]α =

[1 3/2

1 2

][x

y

]=

[x+ 3

2y

x+ 2y

],

Page 168: MA33 - Introdução à Álgebra Linear

3. OPERADORES LINEARES EM R2 E EM R3 163

o que fornece

T−1(x, y) = (x+3

2y, x+ 2y).

Problemas

2.1 Sejam

A =

1 0 1

0 2 −10 0 1

e B =

1 1 −10 0 1

−1 2 0

.Determine a transformação linear T : R3 → R3 tal que TA = TB ◦ T .

2.2 Considere as matrizes

A =

1 2

0 1

1 −1

e B =

1 1 1

−1 0 0

1 2 1

.Determine:

(a) KerTA; (b) ImTA; (c) KerTB;

(d) ImTB; (e) Ker(TB ◦ TA); (f) Im(TB ◦ TA).

2.3 Prove a Proposição 6.2.2.

3 Operadores Lineares em R2 e em R3

Dentre os operadores lineares mais importantes em R2 e em R3 estão os

que produzem re�exões, projeções e rotações. A seguir, passamos a estudar

alguns destes operadores.

Re�exões Consideremos o operador linear T : R2 → R2, chamado de re�e-

xão em torno do eixo Ox, que transforma cada vetor v = (x, y) ∈ R2 em sua

imagem simétrica em relação ao eixo Ox.Figura 10

Se escrevermos w = T (v) = (w1, w2), obtemos as equações

w1 = x = 1x+ 0y, w2 = −y = 0x− 1y.

Page 169: MA33 - Introdução à Álgebra Linear

164 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES

Assim, se α denota a base canônica de R2, segue que

[T (v)]α =

[1 0

0 −1

][v]α.

Em geral, os operadores lineares de R2 ou de R3 que levam cada vetor em

seu simétrico em relação a alguma reta ou plano são chamados de re�exões .

Abaixo, apresentamos algumas das re�exões mais comuns em R2 e R3. Fi-

xamos a notação α para denotar a base canônica de R2 ou de R3.

Page 170: MA33 - Introdução à Álgebra Linear

3. OPERADORES LINEARES EM R2 E EM R3 165

Operador Equações Matriz [T ]αα

Re�exão em torno

do eixo Oy

{w1 = −xw2 = y

[−1 0

0 1

]

Re�exão em torno

da reta y = x

{w1 = y

w2 = x

[0 1

1 0

]

Re�exão em torno

do plano xOy

w1 = x

w2 = y

w3 = −z

1 0 0

0 1 0

0 0 −1

Re�exão em torno

do plano yOz

w1 = −xw2 = y

w3 = z

−1 0 0

0 1 0

0 0 1

Re�exão em torno

do plano xOz

w1 = x

w2 = −yw3 = z

1 0 0

0 −1 0

0 0 1

Projeções Consideremos o operador linear T : R2 → R2 que transforma

cada vetor v = (x, y) ∈ R2 em sua projeção ortogonal sobre o eixo Ox

(Figura 11). Se escrevermos w = T (v) = (w1, w2), obteremos as equações

w1 = x = 1x+ 0y, w2 = 0 = 0x+ 0y.

Assim, se α denota a base canônica de R2, temos

[T (v)]α =

[1 0

0 0

][v]α.

Figura 11

Em geral, uma projeção (ou, mais precisamente, uma projeção ortogonal )

de R2 ou R3 é um operador linear que transforma cada vetor em sua projeção

Page 171: MA33 - Introdução à Álgebra Linear

166 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES

ortogonal sobre alguma reta ou algum plano que passa pela origem. A seguir,

apresentamos algumas das projeções mais comuns.

Operador Equações Matriz [T ]αα

Projeção sobre

o eixo Oy

{w1 = 0

w2 = y

[0 0

0 1

]

Projeção sobre

o plano xOy

w1 = x

w2 = y

w3 = 0

1 0 0

0 1 0

0 0 0

Projeção sobre

o plano yOz

w1 = 0

w2 = y

w3 = z

0 0 0

0 1 0

0 0 1

Projeção sobre

o plano xOz

w1 = x

w2 = 0

w3 = z

1 0 0

0 0 0

0 0 1

Rotações Consideremos o operador linear T : R2 → R2 que gira cada vetor

v = (x, y) ∈ R2 de um ângulo �xado θ (Figura 12). T é chamado de rotação

por θ em R2. Figura 12

Page 172: MA33 - Introdução à Álgebra Linear

3. OPERADORES LINEARES EM R2 E EM R3 167

Se escrevermos w = T (v) = (w1, w2), segue da trigonometria que

x = r cosφ, y = r senφ (1)

e

w1 = r cos(θ + φ), w2 = r sen(θ + φ), (2)

onde r denota o comprimento de v e φ denota o ângulo entre v e o eixo Ox

positivo no sentido anti-horário. Aplicando identidades trigonométricas em

(2), temos {w1 = r cos θ cosφ− r sen θ senφw2 = r sen θ cosφ+ r cos θ senφ.

Substituindo (1) nas expressões acima, obtemos as equações{w1 = x cos θ − y sen θw2 = x sen θ + y cos θ.

(3)

Assim, se α denota a base canônica de R2, obtemos

[T (v)]α =

[cos θ − sen θ

sen θ cos θ

][v]α.

Em geral, uma rotação de vetores em R3 é feita em relação a uma reta

partindo da origem, chamada eixo de rotação . À medida que um vetor gira

em torno do eixo de rotação, ele varre uma porção de um cone (Figura 13).

Page 173: MA33 - Introdução à Álgebra Linear

168 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES

O ângulo de rotação , que é medido na base do cone, é descrito no sentido

horário ou anti-horário em relação a um ponto de vista ao longo do eixo de

rotação olhando para a origem. Por exemplo, na Figura 13, o vetor T (v)

resulta da rotação no sentido anti-horário do vetor v em torno do eixo Ox

por um ângulo θ. Assim como em R2, os ângulos são positivos se gerados

por rotações no sentido anti-horário e negativos se gerados por rotações no

sentido horário.

Figura 13

Na tabela a seguir, apresentamos as rotações em R3 cujos eixos de rotação

são os eixos coordenados.

Page 174: MA33 - Introdução à Álgebra Linear

3. OPERADORES LINEARES EM R2 E EM R3 169

Operador Equações Matriz [T ]αα

Rotação anti-horária

em torno do eixo Ox

por um ângulo θ

w1 = x

w2 = y cos θ − z sen θw3 = y sen θ + z cos θ

1 0 0

0 cos θ − sen θ

0 sen θ cos θ

Rotação anti-horária

em torno do eixo Oy

por um ângulo θ

w1 = x cos θ + z sen θ

w2 = y

w3 = −x sen θ + z cos θ

cos θ 0 sen θ

0 1 0

− sen θ 0 cos θ

Rotação anti-horária

em torno do eixo Oz

por um ângulo θ

w1 = x cos θ − y sen θw2 = x sen θ + y cos θ

w3 = z

cos θ − sen θ 0

sen θ cos θ 0

0 0 1

Para cada uma das rotações na tabela acima, uma das componentes do

vetor permanece inalterada durante a rotação e a relação entre as duas outras

componentes pode ser deduzida da mesma forma que deduzimos (3).

Sabemos que a multiplicação por escalar de um vetor em R2 e em R3, de-

pendendo do valor do escalar, produz no vetor uma dilatação, contração ou

inversão. Podemos representar estes efeitos geométricos por meio de opera-

dores lineares. De fato, o operador linear Ta : R2 → R2, dado por Ta(v) = av,

em que a ∈ R e v ∈ R2, dilata v, se a ≥ 1; contrai v, se 0 ≤ a < 1; inverte

o sentido de v, se a < 0. No caso particular de a = −1, o operador Ta é

chamado re�exão em torno da origem . O que acabamos de ver vale também

para R3 (Figura 14). Figura 14

Exemplo 1. Determinemos se T1 ◦ T2 = T2 ◦ T1, onde T1 : R2 → R2 é a

projeção ortogonal sobre o eixo Ox e T2 : R2 → R2 é a projeção ortogonal

sobre o eixo Oy.

Como vimos na Seção 2, compor transformações lineares é equivalente a

multiplicar as matrizes que representam estas transformações. Seja α a base

Page 175: MA33 - Introdução à Álgebra Linear

170 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES

canônica de R2. Como

[T1]αα =

[1 0

0 0

]e [T2]

αα =

[0 0

0 1

],

segue que T1 ◦ T2 é dada pelo produto[1 0

0 0

][0 0

0 1

]=

[0 0

0 0

](4)

e que T2 ◦ T1 é dada pelo produto[0 0

0 1

][1 0

0 0

]=

[0 0

0 0

]. (5)

De (4) e (5), obtemos que T1 ◦ T2 e T2 ◦ T1 são o operador nulo em R2.

Portanto, T1 ◦ T2 = T2 ◦ T1.

Problemas

3.1* Encontre a matriz na base canônica para a composição de uma rotação

de 90◦ seguida de uma re�exão em torno da reta y = x, em R2.

3.2* Determine a inversa do operador linear em R3 dado por uma re�exão

em torno do plano xOy.

3.3 Sejam T : R2 → R2 a re�exão em torno do eixo Oy e S : R2 → R2 a

re�exão em torno do eixo Ox. Mostre que S ◦ T = T ◦ S.

Page 176: MA33 - Introdução à Álgebra Linear

4. MUDANÇA DE BASE E MATRIZES SEMELHANTES 171

3.4 Sejam T : R2 → R2 a re�exão em torno da reta y = x e S : R2 → R2 a

projeção ortogonal sobre o eixo Oy. Mostre que S ◦ T 6= T ◦ S.

3.5 Mostre que se T : R3 → R3 é uma projeção ortogonal sobre um dos eixos

coordenados, então os vetores T (v) e v − T (v) são ortogonais, para cada v

em R3.

3.6 Seja T : R3 → R3 a projeção ortogonal sobre o plano xOy. Mostre que

uma reta ortogonal ao plano xOy é levada por T a um mesmo ponto deste

plano.

3.7 Determine a matriz na base canônica de T : R2 → R2, em que

(a) T dilata os vetores de R2 por 3, em seguida re�ete estes vetores em torno

da reta y = x e depois projeta estes vetores ortogonalmente sobre o eixo Oy;

(b) T contrai os vetores de R2 por1

2, em seguida gira estes vetores pelo

ânguloπ

4e depois re�ete estes vetores em torno do eixo Ox.

4 Mudança de Base e Matrizes Semelhantes

Um problema comum no estudo de espaços vetoriais de dimensão �nita é

conhecer as relações entre as coordenadas de um vetor em diferentes bases.

Como a noção de base é a generalização para espaços vetoriais arbitrários da

noção de sistemas de coordenadas em R2 e R3, mudar de base é análogo a

mudar de eixos coordenados em R2 ou R3.

Dado um espaço vetorial V arbitrário de dimensão �nita e duas bases α e

β de V , podemos obter uma relação entre as matrizes [v]α e [v]β de um vetor

v em V , usando, para isto, o operador identidade em V .

Com efeito, pela expressão (3) da Seção 1, para todo v ∈ V , temos que

[v]β = [IV ]αβ · [v]α. (1)

A matriz [IV ]αβ é chamada matriz mudança de base de α para β, pois, pela

igualdade (1), ela nos permite obter as coordenadas de um vetor v em V em

relação à base β uma vez conhecidas suas coordenadas na base α.

Page 177: MA33 - Introdução à Álgebra Linear

172 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES

Exemplo 1. Considerando a base canônica α de R2 e a outra base β =

{(1, 1), (1, 2)}, temos que

[IR2 ]αβ =

[a1 b1

a2 b2

],

onde a1, a2, b1, b2 são números reais satisfazendo o sistema de equações(1, 0) = a1(1, 1) + a2(1, 2)

(0, 1) = b1(1, 1) + b2(1, 2).

Resolvendo as equações acima, obtemos a1 = 2, a2 = −1, b1 = −1 e

b2 = 1. Portanto,

[IR2 ]αβ =

[2 −1−1 1

].

Seja agora v = (x, y) em R2. Se

[v]β =

[x′

y′

],

então [x′

y′

]=

[2 −1−1 1

][x

y

],

o que garante que

x′ = 2x− y e y′ = −x+ y

são as coordenadas de v na base β. Ou seja,

(x, y) = (2x− y)(1, 1) + (−x+ y)(1, 2).

A Figura 15 ilustra como a determinação do par (2,3) em R2 depende da

base com a qual estamos trabalhando.

Page 178: MA33 - Introdução à Álgebra Linear

4. MUDANÇA DE BASE E MATRIZES SEMELHANTES 173

Figura 15

O próximo resultado mostra que uma matriz mudança de base é invertível

e que sua inversa também é uma matriz mudança de base.

Teorema 6.4.1. Sejam α e β duas bases de um espaço de dimensão �nita

V . Temos que a matriz [IV ]αβ é invertível e sua inversa é a matriz [IV ]

βα. Ou

seja,

([IV ]αβ)−1 = [IV ]

βα.

Demonstração Como IV é um isomor�smo e I−1V = IV , o resultado segue

do Teorema 6.2.4. �

Sejam α e β duas bases de um espaço vetorial de dimensão �nita V e T

um operador linear em V . Com as matrizes mudança de base podemos obter

uma relação entre as matrizes [T ]αα e [T ]ββ. De fato, como T = IV ◦T ◦ IV ,segue, da Proposição 6.2.3, que

[T ]αα = [IV ◦T ◦ TV ]αα = [IV ]βα · [T ]

ββ · [IV ]

αβ ,

ou seja

[T ]αα = [IV ]βα · [T ]

ββ · [IV ]

αβ . (2)

No entanto, pelo Teorema 6.4.1, temos que [IV ]βα é a inversa de [IV ]αβ . Assim,

se denotarmos [IV ]αβ por P , a equação (2) pode ser reescrita como

[T ]αα = P−1 [T ]ββ P .

Page 179: MA33 - Introdução à Álgebra Linear

174 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES

Com isto, demonstramos o seguinte resultado:

Teorema 6.4.2. Sejam α e β duas bases de um espaço vetorial de dimensão

�nita V . Se T é um operador linear em V , então

[T ]αα = P−1 · [T ]ββ · P, (3)

onde P = [IV ]αβ .

A relação dada na expressão (3) é de tal importância que existe uma ter-

minologia associada a ela. Sejam A e B matrizes quadradas de mesma ordem.

Dizemos que B é semelhante a A, quando existir uma matriz invertível P tal

que B = P−1AP . É fácil veri�car que se uma matriz B é semelhante a uma

matriz A, então A também é semelhante a B. Assim, dizemos simplesmente

que A e B são semelhantes . Por (3), temos que [T ]αα e [T ]ββ são semelhantes.

Exemplo 2. Para veri�car se as matrizes

A =

[5 2

−8 −3

]e B =

[1 2

0 1

]são semelhantes, devemos encontrar uma matriz invertível P tal que

PA = BP.

Se tal matriz P existir, ela necessariamente é uma matriz quadrada de ordem

2; digamos

P =

[x y

z t

].

Assim, [x y

z t

][5 2

−8 −3

]=

[1 2

0 1

][x y

z t

],

o que é equivalente ao sistema linear homogêneo4x− 8y − 2z = 0

2x− 4y − 2t = 0

4z − 8t = 0,

Page 180: MA33 - Introdução à Álgebra Linear

4. MUDANÇA DE BASE E MATRIZES SEMELHANTES 175

que admite a solução não trivial (3, 1, 2, 1). Portanto, obtemos a matriz

invertível

P =

[3 1

2 1

],

que satisfaz A = P−1BP .

Problemas

4.1 Sejam dadas as bases de R2

α = {(1, 1), (0, 2)}, β = {(1, 2), (2, 1)} e γ = {(1, 0), (0, 1)}.

(a) Determine[IR2

]αβ,[IR2

]αγ,[IR2

]γβ.

(b) Se v = (4,−1), encontre [v]β usando uma matriz mudança de base.

4.2 Se[IR2

]αβ=

[−1 2

4 −11

]e β = {(3, 5), (1, 2)}, encontre a base α.

4.3 Determine[IR3

]βα, sabendo que

[IR3

]αβ=

0 1 0

1 1 0

1 1 1

.4.4 Encontre três matrizes semelhantes à matriz[

1 1

−1 2

].

4.5 Mostre que não são semelhantes as matrizes[3 1

−6 −2

]e

[−1 2

1 0

].

4.6 Sejam A e B matrizes semelhantes. Prove que:

(a) At e Bt são semelhantes;

(b) Se A e B são invertíveis, então A−1 e B−1 são semelhantes.

Page 181: MA33 - Introdução à Álgebra Linear

176 CAPÍTULO 6. TRANSFORMAÇÕES LINEARES E MATRIZES

4.7 Mostre que a semelhança de matrizes é uma relação de equivalência, ou

seja: (i) A é semelhante a A; (ii) se A é semelhante a B, então B é semelhante

a A; (iii) se A é semelhante a B e B a C, então A é semelhante a C.

4.8* Seja A = (aij) uma matriz quadrada de ordem n. De�ne-se o traço de

A como

trA = a11 + · · ·+ ann.

a) Mostre que tr :M(n, n)→ R é um funcional linear.

b) Se A,B ∈M(n, n), mostre que

trAB = trBA.

c) Seja T : V → V um operador linear, onde V é um espaço n-dimensional,

e seja α uma base de V . De�na trT = tr[T ]αα. Mostre que esta de�nição

independe da base de V escolhida; ou seja, se β é uma outra base de V , então

tr[T ]αα = tr[T ]ββ. Conclua que assim temos bem de�nido um funcional linear

tr : L(V, V )→ R, de�nido por T 7→ trT .

Page 182: MA33 - Introdução à Álgebra Linear

Bibliogra�a

[1] H. P. Bueno, Álgebra Linear, um segundo curso , Coleção Textos Univer-

sitários, SBM, 2006.

[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,

2001.

[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-

mática e Aplicações, IMPA, 2008.

[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção

PROFMAT, SBM, 2012.

[5] V. J. Katz, A History of Mathematics - an Introduction , HarperCollins

College Publishers, 1993.

[6] S. Lang, Introduction to Linear Algebra , 2nd edition, Undergraduate Texts

in Mathematics, Springer, 1986.

[7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária,

IMPA, 1998.

[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção

Matemática Universitária, IMPA, 2010.

300

Page 183: MA33 - Introdução à Álgebra Linear

7

177

Livro: Introdução à Álgebra LinearAutores: Abramo Hefez

Cecília de Souza Fernandez

Capítulo 7: Espaços com ProdutoInterno

Sumário

1 Produto Interno . . . . . . . . . . . . . . . . . . . . 178

2 Ângulos entre Vetores e Ortogonalidade . . . . . . 181

3 Bases Ortonormais . . . . . . . . . . . . . . . . . . . 188

3.1 Conjuntos Ortogonais . . . . . . . . . . . . . . . . 188

3.2 Ortogonalização de Gram-Schmidt . . . . . . . . . 192

4 Operadores em Espaços com Produto Interno . . 198

4.1 O Operador Adjunto . . . . . . . . . . . . . . . . . 199

4.2 Operadores Ortogonais . . . . . . . . . . . . . . . . 202

Page 184: MA33 - Introdução à Álgebra Linear

178 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO

Neste capítulo, apresentaremos a noção de produto interno em espaços

vetoriais. Esta noção, como veremos, generaliza a noção de produto escalar

em R2 e em R3 e enriquece a estrutura de um espaço vetorial, permitindo

de�nir vários conceitos de caráter geométrico previamente estudados em R2

e R3.

1 Produto Interno

Seja V um espaço vetorial. Um produto interno em V é uma função que a

cada par de vetores u e v em V associa um número real, denotado por 〈u, v〉,que satisfaz as seguintes condições:

Para quaisquer vetores u, v e w de V e qualquer número real k,

PI 1 〈v, v〉 ≥ 0;

PI 2 〈v, v〉 = 0 se, e somente se, v = 0;

PI 3 〈u, v〉 = 〈v, u〉;PI 4 〈u+ v, w〉 = 〈u,w〉+ 〈v, w〉;PI 5 〈ku, v〉 = k〈u, v〉.

Um espaço vetorial com um produto interno é chamado, abreviadamente,

de espaço com produto interno.

Exemplo 1. Sejam u = (x1, x2, . . . , xn) e v = (y1, y2, . . . , yn) vetores em Rn.

De�nimos

〈u, v〉 = x1y1 + x2y2 + · · ·+ xnyn . (1)

Note que

〈u, u〉 = x21 + · · ·+ x2n ≥ 0,

e que

〈u, v〉 = x1y1 + x2y2 + · · ·+ xnyn = y1x1 + y2x2 + · · ·+ ynxn = 〈v, u〉,

mostrando que as condições 1 e 3 da de�nição de produto interno são satis-

feitas. A condição 2 também é satisfeita já que

〈u, u〉 = x21 + · · ·+ x2n = 0 ⇐⇒ x1 = · · · = xn = 0 ⇐⇒ u = 0.

Page 185: MA33 - Introdução à Álgebra Linear

1. PRODUTO INTERNO 179

Se w = (z1, z2, . . . , zn), então

〈u+ v, w〉 = (x1 + y1)z1 + (x2 + y2)z2 + · · ·+ (xn + yn)zn

= (x1z1 + x2z2 + · · ·+ xnzn) + (y1z1 + y2z2 + · · ·+ ynzn)

= 〈u,w〉+ 〈v, w〉,

mostrando que a condição 4 é satisfeita. A condição 5 também é satisfeita,

pois se k ∈ R, então

〈ku, v〉 = (kx1)y1+(kx2)y2+· · ·+(kxn)yn = k(x1y1+x2y2+· · ·+xnyn) = k〈u, v〉.

Assim, (1) de�ne um produto interno em Rn, chamado de produto interno

usual de Rn ou produto escalar de Rn, generalizando a noção de produto

escalar de R2 e de R3.

Exemplo 2. Sejam p(x) = a0 + a1x+ a2x2 e q(x) = b0 + b1x+ b2x

2 vetores

em R[x]2. De�na

〈p(x), q(x)〉 = a0b0 + a1b1 + a2b2 . (2)

Temos que (2) de�ne um produto interno em R[x]2. De fato, por meio do

isomor�smo de espaços vetoriais,

T : R[x]2 → R3

a0 + a1x+ a2x2 7→ (a0, a1, a2)

o produto 〈p(x), q(x)〉 não é outro que o produto interno usual de R3.

O próximo resultado apresenta algumas propriedades básicas dos produ-

tos internos.

Proposição 7.1.1. Seja V um espaço com produto interno. Se u, v, w ∈ Ve se k ∈ R, então

(i) 〈0, u〉 = 〈u, 0〉 = 0;

(ii) 〈u, v + w〉 = 〈u, v〉+ 〈u,w〉;

(iii) 〈u, kv〉 = k〈u, v〉;

Page 186: MA33 - Introdução à Álgebra Linear

180 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO

(iv) 〈u, v − w〉 = 〈u, v〉 − 〈u,w〉.

Demonstração Provaremos apenas (ii) e deixaremos os demais itens como

exercício (ver Problema 1.3).

De fato, pela condições PI 3 e PI 4 da de�nição de produto interno temos

que

〈u, v + w〉 = 〈v + w, u〉 = 〈v, u〉+ 〈w, u〉 = 〈u, v〉+ 〈u,w〉.

Seja V um espaço com produto interno. De�nimos a norma do vetor v

de V , ou comprimento de v, denotado por ||v||, como o número real

||v|| = 〈v, v〉1/2.

Se ||v|| = 1, dizemos que v é um vetor unitário .

A distância d(u, v) entre dois vetores u e v de V é de�nida como

d(u, v) = ||u− v|| =√〈u− v, u− v〉.

Por exemplo, se u = (x1, x2, . . . , xn) e v = (y1, y2, . . . , yn) são vetores de

Rn com o produto interno usual, então

||u|| = 〈u, u〉1/2 =√x21 + x22 + · · ·+ x2n

e

d(u, v) = ||u− v|| = 〈u− v, u− v〉1/2

=√

(x1 − y1)2 + (x2 − y2)2 + · · ·+ (xn − yn)2.

Observe que, no caso de R2 e R3, ||u|| e d(u, v) são precisamente a norma

e a distância usuais de R2 e de R3.

Problemas

1.1* Sejam u = (x1, x2) e v = (y1, y2) vetores em R2.

Page 187: MA33 - Introdução à Álgebra Linear

2. ÂNGULOS ENTRE VETORES E ORTOGONALIDADE 181

(a) Mostre que

〈u, v〉 =1

9x1y1 +

1

4x2y2

de�ne um produto interno em R2.

(b) Esboce o círculo unitário no sistema de coordenadas xy em R2, usando

a distância obtida a partir do produto interno em (a).

(c) Esboce o círculo unitário no sistema de coordenadas xy em R2, usando a

distância obtida a partir do produto interno usual.

(d) Você nota alguma diferença entre os círculos obtidos em (a) e em (b)?

1.2 Sejam u = (x1, x2) e v = (y1, y2) vetores em R2. Mostre que as expressões

a seguir de�nem produtos internos em R2.

(a) 〈u, v〉 = 3x1y1 + 5x2y2 .

(b) 〈u, v〉 = 4x1y1 + x2y1x1y2 + 4x2y2 .

1.3 Conclua a demonstração da Proposição 7.1.1.

1.4 Suponha que u, v e w sejam vetores tais que

〈u, v〉 = 2, 〈u,w〉 = −3, 〈v, w〉 = 5, ||u|| = 1, ||v|| = 2 e ||w|| = 1.

Calcule o valor de cada uma das seguintes expressões:

(a) 〈u+ v, v + w〉; (b) 〈2v + w, 2u− v〉; (c) ||u+ v + w||.

2 Ângulos entre Vetores e Ortogonalidade

Recordemos que no Capítulo 4 vimos que o ângulo θ, com 0 ≤ θ ≤ π,

entre dois vetores não nulos u e v em R3, dotado do produto escalar, satisfaz

a igualdade

cos θ =u · v||u|| ||v||

· (1)

Nosso primeiro objetivo nesta seção será o de de�nir o conceito de ângulo

entre dois vetores não nulos de um espaço com produto interno, utilizando

Page 188: MA33 - Introdução à Álgebra Linear

182 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO

(1), onde o produto escalar é substituído pelo produto interno. Para que

uma tal de�nição faça sentido, devemos assegurar que

|〈u, v〉|||u|| ||v||

≤ 1

para quaisquer dois vetores não nulos u e v de V . Veremos, no próximo

resultado, que isto sempre ocorre.

Teorema 7.2.1. (Desigualdade de Cauchy-Schwarz) Se u e v são ve-

tores de um espaço com produto interno V , então

|〈u, v〉| ≤ ||u|| ||v||, (2)

com igualdade valendo se, e somente se, u e v são linearmente dependentes.

Demonstração A desigualdade é clara se u é o vetor nulo de V . Supo-

nhamos, então, u diferente do vetor nulo. Para qualquer t ∈ R, temos que

〈tu+ v, tu+ v〉 ≥ 0, ou seja, para qualquer t ∈ R,

〈u, u〉t2 + 2〈u, v〉t+ 〈v, v〉 ≥ 0. (3)

De�namos p(t) = 〈u, u〉t2 + 2〈u, v〉t+ 〈v, v〉, t ∈ R. Por (3), p é uma função

polinomial não negativa. Além disso, como o coe�ciente do termo quadrático

é não negativo, segue que o discriminante ∆ de p(t) é um número real não

positivo. Portanto,

∆ = 4〈u, v〉2 − 4〈u, u〉〈v, v〉= 4〈u, v〉2 − 4||u||2 ||v||2 ≤ 0,

o que equivale a

〈u, v〉2 ≤ ||u||2 ||v||2.

Extraindo a raiz quadrada em ambos os lados da desigualdade acima, obte-

mos (2). Deixaremos a parte que trata da igualdade em (2) como exercício

(cf. Problema 2.3) �

Page 189: MA33 - Introdução à Álgebra Linear

2. ÂNGULOS ENTRE VETORES E ORTOGONALIDADE 183

Cabe observar que o Teorema 7.2.1 foi provado, em 1821, por Augustin

Cauchy (França, 1789 - 1857) para V = Rn, com o produto interno usual. O

resultado geral, para um espaço com produto interno arbitrário, foi provado

em 1885, por Hermann Schwarz (Alemanha, 1843 - 1921).

Vamos agora de�nir a noção de ângulo em espaços com produto interno

arbitrários. Suponhamos que u e v são vetores não nulos de um espaço

com produto interno V . Dividindo ambos os lados da desigualdade (2) por

||u|| ||v||, obtemos|〈u, v〉|||u|| ||v||

≤ 1

ou, equivalentemente,

−1 ≤ 〈u, v〉||u|| ||v||

≤ 1. (4)

Como cos θ assume, uma única vez, cada valor no intervalo [−1, 1] quando θ

varia no intervalo [0, π], segue de (4) que existe um único θ ∈ [0, π] tal que

cos θ =〈u, v〉||u|| ||v||

· (5)

De�nimos o ângulo entre u e v como o número real θ acima mencionado.

Parece estranho de�nir a norma de um vetor e o ângulo entre dois vetores

em um espaço vetorial abstrato com produto interno, já que em geral não

temos uma representação geométrica associada a estes espaços. Contudo,

muitas de�nições e teoremas básicos da Geometria continuam valendo neste

grau de generalidade.

Por exemplo, sabemos da Geometria de R2 que o comprimento de um

lado de um triângulo não excede a soma dos comprimentos dos outros dois

(Figura 16(a)). Veremos a seguir que este resultado vale em todos os espaços

com produto interno (veja Proposição 7.2.2(iv)). Um outro resultado da

Geometria a�rma que a soma dos quadrados das diagonais de um paralelo-

gramo coincide com a soma dos quadrados dos quatro lados (Figura 16(b)).

Este resultado também vale em qualquer espaço com produto interno (veja

Problema 2.2). Figura 16(a) Figura 16(b)

Page 190: MA33 - Introdução à Álgebra Linear

184 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO

Assim, o produto interno é uma noção que enriquece a estrutura de um

espaço vetorial, permitindo generalizar várias noções de caráter geométrico

em R2 e em R3 para espaços vetoriais mais gerais.

Proposição 7.2.2. (Propriedades da norma) Se u e v são vetores em

um espaço V com produto interno e se k ∈ R, então:

(i) ||u|| ≥ 0;

(ii) ||u|| = 0 se, e somente se, u = 0;

(iii) ||ku|| = |k| ||u||;(iv) ||u+ v|| ≤ ||u||+ ||v|| (desigualdade triangular).

Demonstração Provaremos o item (iv) e deixaremos os demais itens como

exercícios (veja Problema 2.4). Temos

||u+ v||2 = 〈u+ v, u+ v〉 = 〈u, u〉+ 〈u, v〉+ 〈v, u〉+ 〈v, v〉= ||u||2 + 2〈u, v〉+ ||v||2 ≤ ||u||2 + 2|〈u, v〉|+ ||v||2, (6)

pois x ≤ |x| para todo x ∈ R. Por (2),

||u||2 + 2|〈u, v〉|+ ||v||2 ≤ ||u||2 + 2||u|| ||v||+ ||v||2

= (||u||+ ||v||)2. (7)

De (6) e (7), segue que

||u+ v||2 ≤ (||u||+ ||v||)2.

Extraindo as raízes quadradas em ambos os lados da desigualdade acima

obtemos a desigualdade desejada. �

Page 191: MA33 - Introdução à Álgebra Linear

2. ÂNGULOS ENTRE VETORES E ORTOGONALIDADE 185

No próximo resultado apresentamos algumas propriedades da noção de

distância entre dois vetores de um espaço com produto interno. A veri�cação

dessas propriedades é simples e usa a Proposição 7.2.2. Portanto, deixaremos

a sua demonstração como exercício para o leitor (veja Problema 2.5).

Proposição 7.2.3. (Propriedades da distância) Se u, v e w são vetores

em um espaço com produto interno V , então:

(i) d(u, v) ≥ 0;

(ii) d(u, v) = 0 se, e somente se, u = v;

(iii) d(u, v) = d(v, u);

(iv) d(u, v) ≤ d(u,w) + d(w, v) (desigualdade triangular).

O próximo objetivo desta seção é de�nir a noção de ortogonalidade em

um espaço com produto interno. Comecemos com a noção de ortogonalidade

entre dois vetores.

Sejam u e v dois vetores não nulos de um espaço com produto interno

V e seja θ o ângulo entre eles. Segue de (5) que cos θ = 0 se, e somente se,

〈u, v〉 = 0. Equivalentemente, temos θ = π/2 se, e somente se 〈u, v〉 = 0.

Convencionamos que se u ou v é o vetor nulo, o ângulo entre eles é π/2.

Assim, dizemos que dois vetores quaisquer u e v em V são ortogonais quando

〈u, v〉 = 0.

A seguir, introduziremos a noção de ortogonalidade entre um vetor e um

subespaço.

Sejam v um vetor de V e W um subespaço de V . Dizemos que v é

ortogonal a W se v é ortogonal a cada vetor de W . O conjunto de todos os

vetores de V que são ortogonais a W é chamado complemento ortogonal de

W e é denotado por W⊥.

Exemplo 1. Seja R3 com o produto interno usual e seja W o plano de

equação cartesiana x + y + z = 0. O vetor v = (1, 1, 1) é ortogonal a W ,

pois v é um vetor normal a este plano. Para determinarmos W⊥, devemos

Page 192: MA33 - Introdução à Álgebra Linear

186 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO

encontrar um vetor (a, b, c) em R3 que seja ortogonal a todo vetor de W .

Como um vetor de W é da forma (−y − z, y, z), para y, z ∈ R, devemos

encontrar (a, b, c) tal que

(−y − z, y, z) · (a, b, c) = 0

Fazendo, na igualdade acima, y = 0 e z = 1, obtemos a = c; e, fazendo y = 1

e z = 0, obtemos a = b. Portanto,

W⊥ = {(a, a, a); a ∈ R},

ou seja, W⊥ é a reta que passa pela origem que tem v como um vetor diretor.

Terminamos esta seção apresentando algumas propriedades do comple-

mento ortogonal.

Proposição 7.2.4. Seja W um subespaço de um espaço com produto interno

V . Então:

(i) W⊥ é um subespaço de V ;

(ii) W ∩W⊥ = {0};(iii) (W⊥)⊥ = W .

Demonstração Provaremos apenas (i), deixando as demonstrações das

demais propriedades para o leitor (veja Problema 2.10).

Primeiramente, é claro que 0 ∈ W⊥. Tomemos u e v em W⊥ e a em R.Se w ∈ W , então

〈u+ av, w〉 = 〈u,w〉+ a〈v, w〉 = 0 + a0 = 0,

mostrando que u + av é ortogonal a w. Como w ∈ W foi tomado de modo

arbitrário, temos que u + av é ortogonal a cada vetor de W , ou seja u + av

está em W⊥. Pelo Corolário 3.1.2, segue que W⊥ é um subespaço de V . �

No Capítulo 1 tivemos a oportunidade de mostrar que dois sistemas line-

ares homogêneos com matrizes associadas equivalentes possuem conjuntos de

Page 193: MA33 - Introdução à Álgebra Linear

2. ÂNGULOS ENTRE VETORES E ORTOGONALIDADE 187

soluções iguais. Vamos, no exemplo a seguir, mostrar que vale uma recíproca

dessa propriedade.

Exemplo 2. Seja dado um sistema linear homogêneo AX = 0, com m equa-

ções e n incógnitas cujo espaço solução é denotado por Sh(A). Chamemos de

TA a transformação linear de Rn para Rm determinada por A e pelas bases

canônicas dos dois espaços vetoriais (cf. Exemplo 4, Seção 1 do Capítulo 6).

Como as soluções do sistema são os vetores de Rn que são ortogonais aos

vetores linhas de A, temos, pelo Problema 2.11, que Sh(A) = (L(A))⊥.

Problemas

2.1 Suponha que R3 e R4 têm o produto interno usual. Em cada item abaixo,

encontre o cosseno do ângulo entre u e v:

(a) u = (−1, 5, 2) e v = (2, 4,−9);

(b) u = (1, 0, 1, 0) e v = (1, 1, 1, 1);

(c) u = (2, 1, 0,−1) e v = (4, 0, 0, 0).

2.2* Mostre que a seguinte identidade vale para quaisquer vetores u e v de

um espaço com produto interno:

||u+ v||2 + ||u− v||2 = 2||u||2 + 2||v||2.

2.3 Mostre que vale a igualdade na desigualdade de Cauchy-Schwarz se, e

somente se, u e v são linearmente dependentes.

2.4 Conclua a demonstração da Proposição 7.2.2.

2.5 Prove a Proposição 7.2.3.

2.6 Use a desigualdade de Cauchy-Schwarz para mostrar, para quaisquer

valores reais de a, b e θ, que

(a cos θ + b sen θ)2 ≤ a2 + b2.

2.7 Seja {v1, v2, . . . , vn} uma base de um espaço com produto interno V .

Mostre que o vetor nulo de V é o único vetor de V que é ortogonal a todos

os vetores da base.

Page 194: MA33 - Introdução à Álgebra Linear

188 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO

2.8 Seja V um espaço com produto interno. Mostre que se u e v são vetores

ortogonais de V tais que ||u|| = ||v|| = 1, então ||u− v|| =√

2.

2.9* (Uma generalização do Teorema de Pitágoras) Seja {v1, v2, . . . , vn} umconjunto ortogonal de vetores de um espaço com produto interno. Então

||v1 + v2 + · · ·+ vn||2 = ||v1||2 + ||v2||2 + · · ·+ ||vn||2.

2.10 Conclua a demonstração da Proposição 7.2.4.

2.11 Seja β um conjunto de geradores de W , onde W é um subespaço de um

espaço com produto interno V . Mostre que W⊥ consiste de todos os vetores

de V que são ortogonais a cada vetor do conjunto β.

2.12* Seja W o subespaço de R5 gerado pelos vetores u = (1, 2, 3,−1, 2) e

v = (2, 1, 3, 2,−1). Determine uma base de W⊥.

2.13 Suponha que R4 tem o produto interno usual e seja v = (1,−1, 0,−2).

Determine se v é ortogonal ao subespaço de R4 gerado pelos vetores v1 =

(−1, 1, 3, 0) e v2 = (4, 0, 2, 2).

2.14 Seja W o plano de equação cartesiana x− 2y− 3z− 1 = 0. Obtenha as

equações paramétricas para W⊥.

3 Bases Ortonormais

Veremos nesta seção que um espaço vetorial, com produto interno, possui

bases que se destacam das demais, chamadas de bases ortonormais. Traba-

lhar com este tipo de base torna V geometricamente muito parecido com o

espaço Rn, onde n = dimV .

Ao longo desta seção, V será sempre um espaço com produto interno 〈 , 〉,de dimensão �nita n > 0.

3.1 Conjuntos Ortogonais

Um conjunto de vetores em V é chamado conjunto ortogonal se quaisquer

dois vetores distintos do conjunto são ortogonais.

Page 195: MA33 - Introdução à Álgebra Linear

3. BASES ORTONORMAIS 189

Por exemplo, o conjunto {(1, 2, 1), (2, 1,−4), (3,−2, 1)} é um conjunto

ortogonal em R3 com seu produto interno usual.

Um conjunto ortogonal no qual cada vetor tem norma 1 é chamado con-

junto ortonormal . Se v é um vetor não nulo em um espaço com produto

interno, segue da Proposição 7.2.2(iii) que o vetor ||v||−1 v tem norma 1.

O processo de multiplicar um vetor não nulo pelo inverso de sua norma para

obter um vetor de norma 1 é chamado de normalização . Assim, um con-

junto ortogonal de vetores não nulos pode ser sempre transformado em um

conjunto ortonormal, normalizando-se cada um de seus vetores.

O próximo resultado relaciona a noção de ortogonalidade com a noção de

independência linear.

Proposição 7.3.1. Todo conjunto ortogonal de vetores não nulos de V é

linearmente independente.

Demonstração Seja {v1, . . . , vr} um conjunto de vetores ortogonais de V

com produto interno. Consideremos a equação

a1v1 + a2v2 + · · ·+ arvr = 0.

Vamos mostrar que ai = 0, para todo 1 ≤ i ≤ r. Fixe 1 ≤ i ≤ r. Então,

〈a1v1 + · · ·+ arvr, vi〉 = a1〈v1, vi〉+ · · ·+ ai〈vi, vi〉+ ai+1〈vi+1, vi〉+ · · ·+ ar〈vr, vi〉

= ai〈vi, vi〉, (1)

já que 〈vj, vi〉 = 0 sempre que j 6= i. Por outro lado

〈a1v1 + a2v2 + · · ·+ arvr, vi〉 = 〈0, vi〉 = 0. (2)

De (1) e (2), segue que ai〈vi, vi〉 = 0 e como vi é um vetor não nulo, temos

necessariamente que ai = 0. Como i foi tomado de modo arbitrário em seu

intervalo de variação, o resultado segue. �

A recíproca do resultado acima é obviamente falsa, pois, por exemplo,

o conjunto {(1, 1), (1, 0)} de vetores em R2 com o produto interno usual é

linearmente independente, mas não é um conjunto ortogonal.

Page 196: MA33 - Introdução à Álgebra Linear

190 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO

Se α={v1, . . . , vn} é um conjunto ortogonal de vetores não nulos de V ,

segue da proposição anterior que α é uma base de V . Uma base consistindo

de vetores ortogonais é chamada base ortogonal e uma base consistindo de

vetores ortonormais é chamada base ortonormal.

Por exemplo, a base canônica de Rn com o produto interno usual é uma

base ortonormal.

Vimos que se V é um espaço vetorial e α é uma base de V então, em

geral, é necessário resolver um sistema linear a �m de escrever um vetor

de V em termos da base α. O próximo resultado mostra que quando V é

um espaço com produto interno e α é uma base ortonormal de V , então é

bastante simples encontrar as coordenadas de um vetor de V em relação a

base α.

Teorema 7.3.2. Se α={v1, v2, . . ., vn} é uma base ortonormal de V , então,

para todo v ∈ V , podemos escrever

v = 〈v, v1〉v1 + 〈v, v2〉v2 + · · ·+ 〈v, vn〉vn .

Demonstração Seja v = a1v1 + a2v2 + · · ·+ anvn a escrita de v na base α.

Fixe i, com 1 ≤ i ≤ n. Temos

〈v, vi〉 = 〈a1v1 + a2v2 + · · ·+ anvn, vi〉= a1〈v1, vi〉+ · · ·+ ai〈vi, vi〉+ · · ·+ an〈vn, vi〉 = ai,

já que 〈vj, vi〉 = 0 se j 6= i e 〈vi, vi〉 = ||vi||2 = 1. Como i foi tomado de

modo arbitrário, a demonstração está completa. �

Se β = {v1, v2, . . . , vn} é uma base ortogonal de V , normalizando cada

um dos vetores de β, obtemos a base ortonormal α de V , onde

α =

{v1||v1||

,v2||v2||

, . . . ,vn||vn||

}.

Pelo Teorema 7.3.2, para cada vetor v em V , temos que

v = 〈v, v1||v1||

〉 v1||v1||

+ · · ·+ 〈v, vn||vn||

〉 vn||vn||

=〈v, v1〉||v1||2

v1 + · · ·+ 〈v, vn〉||vn||2

vn.

Page 197: MA33 - Introdução à Álgebra Linear

3. BASES ORTONORMAIS 191

O número real

ai =〈v, vi〉||vi||2

é chamado de coe�ciente de Fourier1 de v em relação ao vetor vi . Este

escalar admite uma interpretação geométrica relacionada com a noção de

projeção. Para apresentarmos esta interpretação geométrica, vamos precisar

do seguinte resultado.

Proposição 7.3.3. Seja w um vetor não nulo de V . Se v ∈ V , então

k =〈v, w〉〈w,w〉

=〈v, w〉||w||2

(3)

é o único número real tal que v′ = v − kw é ortogonal a w.

Demonstração Para que v′ seja ortogonal a w devemos ter 〈v−kw,w〉=0,

ou seja, 〈v, w〉 = k〈w,w〉, mostrando que k =〈v, w〉〈w,w〉

· Reciprocamente, su-

ponhamos que k =〈v, w〉〈w,w〉

· Então,

〈v − kw,w〉 = 〈v, w〉 − k〈w,w〉 = 〈v, w〉 − 〈v, w〉〈w,w〉

〈w,w〉 = 0,

o que mostra que v − kw é ortogonal a w. �

O escalar k em (3) é o coe�ciente de Fourier de v em relação ao vetor

w. A projeção de v ao longo de w (Figura 17) é denotada por projw(v) e é

de�nida por

projw(v) = kw =〈v, w〉〈w,w〉

w.Figura 17

O próximo resultado, cuja demonstração é deixada como exercício (veja

Problema 3.2), generaliza a Proposição 7.3.3.

1Em homenagem a Jean-Baptiste Fourier (França, 1768 - 1830), conhecido na Mate-

mática por iniciar a investigação sobre o desenvolvimento de funções periódicas em séries

trigonométricas convergentes, chamadas séries de Fourier, e sua aplicação aos problemas

de condução de calor.

Page 198: MA33 - Introdução à Álgebra Linear

192 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO

Proposição 7.3.4. Suponhamos que {w1, w2, . . . , wr} seja um conjunto or-

togonal de vetores não nulos de V . Se v ∈ V , então

ki =〈v, wi〉||wi||2

, 1 ≤ i ≤ r,

são os únicos números reais tais que o vetor

v′ = v − k1w1 − k2w2 − · · · − krwr

é ortogonal aos vetores w1, w2, . . . , wr.

3.2 Ortogonalização de Gram-Schmidt

Vimos na seção anterior que trabalhar com bases ortonormais é bastante

conveniente. Veremos a seguir que todo espaço com produto interno, não

nulo, de dimensão �nita tem uma base ortonormal.

A construção dada na prova do resultado abaixo é chamada de processo

de ortogonalização de Gram-Schmidt, pois leva os nomes de Jorgen Peder-

sen Gram (Dinamarca, 1850 - 1916) e de Erhard Schmidt (Alemanha, 1876

- 1959). Cabe observar que a construção de Gram-Schmidt pode ser en-

contrada, de modo implícito, em trabalhos de Pierre Simon Laplace2 e de

Cauchy.

2Pierre Simon Laplace (França 1749 � 1827) foi um importante matemático, físico e

astrônomo, conhecido por suas contribuições à mecânica celeste à teoria de probabilidades,

bem como por suas aplicações da matemática à física.

Page 199: MA33 - Introdução à Álgebra Linear

3. BASES ORTONORMAIS 193

Teorema 7.3.5. O espaço V possui uma base ortogonal.

Demonstração Seja {v1, v2, . . . , vn} uma base de V . Tomemos (veja Figura

18)

w1 = v1,

w2 = v2 −〈v2, w1〉||w1||2

w1,

w3 = v3 −〈v3, w1〉||w1||2

w1 −〈v3, w2〉||w2||2

w2,

...

wn = vn −〈vn, w1〉||w1||2

w1 − · · · −〈vn, wn−1〉||wn−1||2

wn−1.

Pela Proposição 7.3.4, o conjunto {w1, w2, . . . , wn} é um conjunto ortogo-

nal. Além disso, como o conjunto {v1, v2, . . . , vn} é linearmente independente,

cada vetor wi é não nulo. Assim, o conjunto {w1, w2, . . . , wn} é um conjunto

ortogonal de vetores não nulos de V . Como, por de�nição, n = dimV , segue

pela Proposição 7.3.1 que {w1, w2, . . . , wn} é uma base ortogonal de V . �

Figura 18

Decorre da proposição acima que se V tem uma base ortogonal, ele tem

uma base ortonormal, pois os vetores de uma base ortogonal podem ser

normalizados para produzir uma base ortonormal de V .

Page 200: MA33 - Introdução à Álgebra Linear

194 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO

Exemplo 1. Considere R3 com o produto interno usual. Apliquemos o

processo de Gram-Schmidt ao conjunto {(1, 0, 0), (1, 1, 1), (0, 0, 1)} para ob-

termos uma base ortogonal {w1, w2, w3} de R3.

Façamos

w1 = (1, 0, 0),

w2 = (1, 1, 1)− 〈(1, 1, 1), (1, 0, 0)〉||(1, 0, 0)||2

(1, 0, 0) = (0, 1, 1),

w3 = (0, 0, 1)− 〈(0, 0, 1), (1, 0, 0)〉||(0, 1, 1)||2

(1, 0, 0)

−〈(0, 0, 1), (0, 1, 1)〉||(0, 1, 1)||2

(0, 1, 1) =

(0,−1

2,1

2

).

Assim, {(1, 0, 0), (0, 1, 1), (0,−12, 12)} é uma base ortogonal de R3.

Uma consequência importante do Teorema 7.3.5, que demonstraremos a

seguir, é o fato de que V=W⊕W⊥, ondeW é um subespaço de V . Em outras

palavras, cada vetor v de V pode ser escrito de modo único como

v = w1 + w2 , (4)

onde w1 ∈ W e w2 ∈ W⊥. O vetor w1 é chamado projeção ortogonal de v

em W e é denotado por projW (v). O vetor w2 é chamado componente de v

ortogonal a W e é denotado por projW⊥(v) (Figura 19). Por (4), temos então

que v = projW (v) + projW⊥(v).Figura 19

Teorema 7.3.6. Se W é um subespaço de V , então

V = W ⊕W⊥.

Demonstração Pela Proposição 7.2.4(ii), W ∩W⊥ = {0}. Vejamos que

V = W + W⊥. Pelo processo de ortogonalização de Gram-Schmidt, existe

Page 201: MA33 - Introdução à Álgebra Linear

3. BASES ORTONORMAIS 195

uma base ortonormal {v1, v2, . . . , vn} de W . Tomemos v ∈ V . De�na

w1 = 〈v, v1〉v1 + 〈v, v2〉v2 + · · ·+ 〈v, vn〉vn,w2 = v − w1 .

Note que w1 + w2 = w1 + (v − w1) = v. Além disso, w1 ∈ W , pois w1 é

uma combinação linear dos vetores da base de W . Portanto, resta mostrar

que w2 ∈ W⊥, ou seja, w2 é ortogonal a W . Para isto, seja w ∈ W . Pelo

Teorema 7.3.2,

w = 〈w, v1〉v1 + 〈w, v2〉v2 + · · ·+ 〈w, vn〉vn .

Assim,

〈w2, w〉 = 〈v − w1, w〉 = 〈v, w〉 − 〈w1, w〉= 〈w, v1〉〈v, v1〉+ · · ·+ 〈w, vn〉〈v, vn〉−(〈v, v1〉〈v1, w〉+ · · ·+ 〈v, vn〉〈vn, w〉

)= 0.

Como w ∈ W foi tomado de modo arbitrário, segue que w2 é ortogonal a W .

Exemplo 2. Retomemos o Exemplo 1 da Seção 2, onde V = R3 e onde

W = {(x, y, z); x + y + z = 0} e W⊥ = {(x, y, z); x = y = z}. Note que

W ∩W⊥ = {0}.

Page 202: MA33 - Introdução à Álgebra Linear

196 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO

Como

dim(W +W⊥) = dimW + dimW⊥ − dim(W ∩W⊥),

segue que dim(W + W⊥) = 3, já que temos dimW = 2, dimW⊥ = 1 e

dim(W ∩W⊥) = 0. Portanto, W + W⊥ = R3. Consequentemente, temos

que R3 = W ⊕W⊥, como aliás deveria ser pelo Teorema 7.3.6.

Para cada (x, y, z) ∈ R3, temos que

(x, y, z) =(2x−y−z

3, −x+2y−z

3, −x−y+2z

3

)+(x+y+z

3, x+y+z

3, x+y+z

3

)∈ W +W⊥.

Mais ainda, a escrita acima é única. Em outras palavras, todo vetor de R3

se expressa, de forma única, como a soma de um elemento e W com um

elemento de W⊥. A �gura abaixo mostra a decomposição do vetor (0, 3, 0).

Figura 20

Exemplo 3. Seja AX = 0 um sistemam×n de equações lineares homogêneo,

cujo conjunto solução denotamos por Sh(A). Seja TA a transformação linear

associada à matriz A. Sabemos (cf. Exemplo 2, Seção 2) que

KerTA = Sh(A) = (L(A))⊥.

Por outro lado, pelo Exemplo 4, Seção 1, Capítulo 6, temos que

ImTA = C(A).

Page 203: MA33 - Introdução à Álgebra Linear

3. BASES ORTONORMAIS 197

Pelo Teorema do Núcleo e da Imagem, temos que

n = dim KerTA + dim ImTA = dim(L(A))⊥ + dim C(A).

Pelo Teorema 7.3.6, temos que

n = dimL(A) + dim(L(A))⊥ = pA + dimSh(A).

Daí decorre que

dimSh(A) = n− pA,

e que

dim C(A) = dimL(A).

Assim, o posto por linhas de uma matriz A, que por de�nição é igual à

dimensão do espaço linha L(A) de A, coincide com o posto de A por colunas,

ou seja com a dimensão do espaço coluna C(A) da matriz A.

Problemas

3.1* Seja V um espaço com produto interno de dimensão �nita n. Se α é

uma base ortonormal de V e se

[v]α =

a1

a2...

an

e [w]α =

b1

b2...

bn

,então:

(a) ||v|| =√a21 + a22 + · · ·+ a2n;

(b) d(v, w) =√

(a1 − b1)2 + (a2 − b2)2 + · · ·+ (an − bn)2;

(c) 〈v, w〉 = a1b1 + a2b2 + · · ·+ anbn .

O exercício anterior mostra que trabalhando com bases ortonormais, o

cálculo de normas e produtos internos arbitrários se reduz ao cálculo de nor-

mas e produtos internos das matrizes das coordenadas, como em Rn com sua

norma e produto interno usuais .

Page 204: MA33 - Introdução à Álgebra Linear

198 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO

3.2 Prove a Proposição 7.3.4.

3.3 Mostre que os vetores

v1 =

(4

5,3

5, 0

), v2 =

(− 3

5,4

5, 0

)e v3 = (0, 0, 1)

formam uma base ortonormal para R3 com o produto interno usual. Em

seguida, expresse o vetor v = (1,−1, 2) nesta base.

3.4* Seja W um subespaço de dimensão �nita de um espaço com produto

interno V . Prove que:

(a) Se {w1, w2, . . . , wn} é uma base ortonormal de W e v é um vetor qualquer

de V , então projW (v) = 〈v, w1〉w1 + 〈v, w2〉w2 + · · ·+ 〈v, wn〉wn ;

(b) Se {w1, w2, . . . , wn} é uma base ortogonal de W e v é um vetor qualquer

de V , então

projW (v) =〈v, w1〉||w1||2

w1 +〈v, w2〉||w2||2

w2 + · · ·+ 〈v, wn〉||wn||2

wn .

3.5 Considere R4 com o produto interno usual. Use o processo de Gram-

Schmidt para transformar a base {v1, v2, v3, v4} em uma base ortogonal, onde

v1 = (0, 2, 1, 0), v2 = (1,−1, 0, 0), v3 = (1, 2, 0,−1) e v4 = (1, 0, 0, 1).

3.6 Seja W o subespaço de R4 gerado pelos vetores

v1 = (1, 1, 1, 1), v2 = (1,−1, 2,−2) e v3 = (−1,−5, 1,−7).

Ache a projeção ortogonal de v = (1, 2,−3, 4) em W .

3.7 Construa, a partir do vetor v = (2, 1, 0), uma base ortonormal de R3 com

o produto interno usual.

4 Operadores em Espaços com Produto Interno

Nesta seção, vamos de�nir importantes operadores em espaços com pro-

duto interno. Mais precisamente, mostraremos a existência do operador ad-

junto de um operador linear e, a partir deste, introduzir as noções de operado-

res simétricos e operadores ortogonais. Estes operadores estão relacionados

Page 205: MA33 - Introdução à Álgebra Linear

4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 199

com o Teorema Espectral, um dos teoremas mais importantes da Álgebra

Linear, conforme veremos no Capítulo 9.

Nesta seção, continuaremos supondo que V é um espaço com produto

interno de dimensão �nita n > 0.

4.1 O Operador Adjunto

Dado um vetor v ∈ V , a ele associamos de modo natural um funcional

linear em V , como segue:

φv : V → Ru 7→ 〈u, v〉 .

De fato, φv é um funcional linear, pois, para todos u1, u2 ∈ V e todo

a ∈ R, temos

φv(u1 + au2) = 〈u1 + au2, v〉 = 〈u1, v〉+ a〈u2, v〉 = φv(u1) + aφv(u2).

Assim, cada v em V de�ne um funcional linear φv em V , ou seja, um ele-

mento de (V,R). A recíproca deste fato é também verdadeira, como mostra

o seguinte resultado.

Teorema 7.4.1. Dado um funcional linear φ em V , existe um único vetor

v ∈ V tal que φ = φv.

Demonstração Seja φ ∈ (V,R) e �xe uma base ortonormal {v1, v2, . . . , vn}de V . Pelo Teorema 7.3.2, todo elemento u ∈ V se escreve como

u = 〈u, v1〉v1 + 〈u, v2〉v2 + · · ·+ 〈u, vn〉vn.

Existência: Tomemos v = φ(v1)v1 + φ(v2)v2 + · · ·+ φ(vn)vn.

Por um lado, temos

φ(u) = φ(〈u, v1〉v1 + 〈u, v2〉v2 + · · ·+ 〈u, vn〉vn

)= 〈u, v1〉φ(v1) + 〈u, v2〉φ(v2) + · · ·+ 〈u, vn〉φ(vn).

(1)

Page 206: MA33 - Introdução à Álgebra Linear

200 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO

Por outro lado,

〈u, v〉 = 〈u, φ(v1)v1 + φ(v2)v2 + · · ·+ φ(vn)vn〉= φ(v1)〈u, v1〉+ φ(v2)〈u, v2〉+ · · ·+ φ(vn)〈u, vn〉.

(2)

Juntando (1) e (2) obtemos que φ(u) = 〈u, v〉 = φv(u), para todo u ∈ V .Unicidade: Suponhamos que v′ tenha a propriedade 〈u, v′〉 = 〈u, v〉, paratodo u ∈ V . Logo 〈u, v − v′〉 = 0, para todo u ∈ V . Portanto, v − v′

é ortogonal a todos os vetores de V , o que, em virtude do Problema 2.7,

acarreta que v = v′. �

Observe que o Teorema 7.4.1 garante que a função v 7→ φv, onde φv(u) =

〈u, v〉 (u ∈ V ), é um isomor�smo entre V e (V,R) (cf. Problema 4.4).

Teorema 7.4.2. Dado um operador linear T em V , existe um único operador

linear T ∗ em V tal que

〈T (v), w〉 = 〈v, T ∗(w)〉, para quaisquer v, w ∈ V.

Demonstração Tome w ∈ V . Como a função de�nida por v 7→ 〈T (v), w〉é um funcional linear em V (veri�que), segue, do Teorema 7.4.1, que existe

um único vetor w′ ∈ V tal que

〈T (v), w〉 = 〈v, w′〉, para todo v ∈ V.

Basta de�nir T ∗(w) = w′. A demonstração do Teorema 7.4.1 também nos

mostra que se {v1, . . . , vn} é uma base ortonormal de V , então

T ∗(w) = w′ = 〈T (v1), w〉v1 + · · ·+ 〈T (vn), w〉vn.

Daí, vê-se claramente que T ∗ é linear. �

O operador T ∗ é chamado de operador adjunto de T . Assim, o Teorema

7.4.2 a�rma que todo operador linear T , em um espaço com produto interno

de dimensão �nita, possui um operador adjunto T ∗.

O próximo resultado mostra como podemos obter T ∗ a partir de uma

representação matricial de T .

Page 207: MA33 - Introdução à Álgebra Linear

4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 201

Proposição 7.4.3. Para toda base ortonormal α de V e para todo operador

linear T em V , temos que

[T ∗]αα = ([T ]αα)t.

Para demonstrarmos a proposição acima, vamos precisar do seguinte re-

sultado, cuja demonstração �ca como exercício para o leitor (veja Problema

4.5).

Lema 7.4.4. Seja α = {v1, . . . , vn} uma base ortonormal de V . Se A =

[aij]n×n é a matriz que representa um oprerador T em V , com relação à base

α (ou seja, A = [T ]αα), então

aij = 〈T (vj), vi〉, para todos i, j, 1 ≤ i, j ≤ n.

Demonstração da Proposição 7.4.3. Considere as matrizes [T ]αα = [aij]n×n

e [T ∗]αα = [bij]n×n. Pelo Lema 7.4.4,

aij = 〈T (vj), vi〉 e bij = 〈T ∗(vj), vi〉, para todos i, j, 1 ≤ i, j ≤ n.

Logo,

bij = 〈T ∗(vj), vi〉 = 〈vi, T ∗(vj)〉 = 〈T (vi), vj〉 = aji,

para todos i, j, com 1 ≤ i, j ≤ n, provando o resultado. �

Um operador linear T : V → V é dito ser um operador simétrico quando

T ∗ = T .

Pela Proposição 7.4.3, observamos que se T é um operador simétrico em

V , então para toda base ortonormal α de V temos

[T ]αα = ([T ]αα)t.

Assim, T : V → V é simétrico se, e somente se, [T ]αα é uma matriz simé-

trica . Observemos que o fato de um operador ser simétrico não depende da

base ortonormal escolhida. Portanto, se [T ]αα for uma matriz simétrica em

Page 208: MA33 - Introdução à Álgebra Linear

202 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO

uma determinada base ortonormal α, então [T ]ββ será também simétrica para

qualquer outra base ortonormal β.

Exemplo 1. Seja T : R3 → R3 o operador linear de�nido por T (x, y, z) =

(2x− y + z,−x+ y + 3z, x+ 3y). Se α é a base canônica de R3, então

[T ]αα =

1 −1 1

−1 1 3

1 3 0

é uma matriz simétrica e, portanto, T é um operador simétrico.

4.2 Operadores Ortogonais

Um operador linear T : V → V é dito ser um operador ortogonal quando

T ∗T = TT ∗ = IV .

Em outras palavras, T é um operador ortogonal quando T é invertível e

T ∗ = T−1.

Diremos que um operador T em V preserva norma, preserva distância, ou

preserva produto interno, quando, para todos u, v ∈ V , se tenha ||T (v)|| =

||v||, d(T (u), T (v)) = d(u, v), ou 〈T (u), T (v)〉 = 〈u, v〉, respectivamente.

O resultado a seguir caracteriza os operadores ortogonais.

Teorema 7.4.5. Seja T : V → V um operador linear. As seguintes a�rma-

ções são equivalentes:

(i) T é ortogonal;

(ii) T preserva a norma;

(iii) T preserva a distância;

(iv) T preserva o produto interno;

(v) T transforma toda base ortonormal de V numa base ortonormal de V ;

Page 209: MA33 - Introdução à Álgebra Linear

4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 203

(vi) T transforma alguma base ortonormal de V numa base ortonormal

de V .

Demonstração (i) ⇒ (ii) Se v ∈ V , então pelo Teorema 7.4.2.

||T (v)||2 = 〈T (v), T (v)〉 = 〈v, T ∗(T (v))〉 = 〈v, IV (v)〉 = 〈v, v〉 = ||v||2.

(ii) ⇒ (iii) Se v, u ∈ V , então

d(T (v), T (u)) = ||T (v)− T (u)|| = ||T (v − u)|| = ||v − u|| = d(v, u).

(iii) ⇒ (iv) Se v, u ∈ V , então d(T (v + u), 0) = d(v + u, 0). Ou seja,

||T (v + u)||2 = ||v + u||2. (3)

Note que

||T (v + u)||2 = 〈T (v), T (v)〉+ 2〈T (v), T (u)〉+ 〈T (u), T (u)〉

e

||v + u||2 = 〈v, v〉+ 2〈v, u〉+ 〈u, u〉 . (4)

Como

〈v, v〉 = (d(v, 0))2 = (d(T (v), 0))2 = 〈T (v), T (v)〉,

o mesmo valendo para u, temos de (3) e (4) que 〈T (v), T (u)〉 = 〈v, u〉, como

desejado.

(iv) ⇒ (i) Se v, u ∈ V , então pelo Teorema 7.4.2

〈v, u〉 = 〈T (v), T (u)〉 = 〈v, T ∗(T (u))〉,

mostrando que, para todos u, v ∈ V ,

〈v, (T ∗T − IV )(u)〉 = 0.

Pelo Problema 2.8, temos que (T ∗T − IV )(u) = 0, para todo u ∈ V , o que

acarreta que T ∗T = IV , logo T é ortogonal.

Page 210: MA33 - Introdução à Álgebra Linear

204 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO

(i) ⇒ (v) Seja {v1, v2, . . . , vn} uma base ortonormal de V . Então

〈T (vi), T (vj)〉 = 〈vi, vj〉 =

0 se i 6= j

1 se i = j.

Logo, o conjunto {T (v1), T (v2), . . . , T (vn)} é ortonormal e, consequentemente,

linearmente independente (Proposição 7.3.1). Como dimV=n, concluímos

que esse conjunto é uma base de V .

(v) ⇒ (vi) Esta implicação é óbvia.

(vi) ⇒ (iv) Seja {v1, v2, . . . , vn} uma base ortonormal de V tal que

{T (v1), T (v2), . . . , T (vn)} também é uma base ortonormal de V . Sejam v

e u em V . Se

v = a1v1 + a2v2 + · · ·+ anvn e u = b1v1 + b2b2 + · · ·+ bnvn ,

então

〈v, u〉 =n∑i=1

n∑j=1

aibj〈vi, vj〉 =n∑i=1

n∑j=1

aibj . (5)

Por outro lado, temos

T (v) = a1T (v1) + a2T (v2) + · · ·+ anT (vn) e

T (u) = b1T (v1) + b2T (v2) + · · ·+ bnT (vn),

donde

〈T (v), T (u)〉 =n∑i=1

n∑j=1

aibj〈T (vi), T (vj)〉 =n∑i=1

n∑j=1

aibj. (6)

Assim, de (5) e (6), concluímos que 〈T (v), T (u)〉 = 〈v, u〉, como desejado. �

Exemplo 2. Consideremos o operador linear T : R2 → R2 dado por T (x, y) =

(x cos θ−y sen θ, x sen θ+y cos θ). Lembremos da Seção 3, do Capítulo 6, que

T é o operador rotação por um ângulo θ em R2. Note que se α é a base canô-

nica de R2, o conjunto {T (1, 0), T (0, 1)} = {(cos θ, sen θ), (− sen θ, cos θ)} é

Page 211: MA33 - Introdução à Álgebra Linear

4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 205

uma base ortonormal em R2. Assim, pelo Teorema 7.4.5, T é um operador

ortogonal em R2.

Para relacionarmos a propriedade de um operador ser ortogonal com pro-

priedades de suas matrizes associadas, estabelecemos a de�nição a seguir.

Uma matriz A ∈M(n, n) é dita ser ortogonal quando

AAt = AtA = In.

Em outras palavras, A é uma matriz ortogonal se A é invertível e At = A−1.

Segue imediatamente da de�nição que uma matriz A é ortogonal se, e

somente se, a matriz At é ortogonal.

Por exemplo, a matriz de rotação em R3 dada por

A =

cos θ − sen θ 0

sen θ cos θ 0

0 0 1

é uma matriz ortogonal.

Com o resultado a seguir podemos veri�car mais facilmente se uma matriz

é ortogonal ou não.

Proposição 7.4.6. Para uma matriz A =[aij]n×n , as seguintes a�rmações

são equivalentes:

(i) A é ortogonal;

(ii) As colunas de A formam um conjunto ortonormal em Rn;

(iii) As linhas de A formam um conjunto ortonormal em Rn.

Demonstração (i) ⇔ (ii) Chamemos AtA =[bij]n×n . Pela de�nição de

produto de matrizes, o elemento bij é dado por

bij = a1i a1j + a2i a2j + · · ·+ ani anj

= 〈(a1i, a2i, . . . , ani), (a1j, a2j, . . . , anj)〉.

Page 212: MA33 - Introdução à Álgebra Linear

206 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO

Portanto, daí segue-se que

AtA = In se, e somente se,

〈(a1i, a2i, . . . , ani), (a1j, a2j, . . . , anj)〉 =

0 se i 6= j

1 se i = j,

provando o desejado.

(i) ⇔ (iii) Basta utilizar o fato que A é ortogonal se, e somente se, At é

ortogonal, que as linhas de At são as colunas de A e aplicar o que foi provado

acima. �

Teorema 7.4.7. Se α e β são bases ortonormais de V , então a matriz

mudança de base[IV]αβé uma matriz ortogonal.

Demonstração Sejam α = {v1, v2, . . . , vn} e β = {w1, w2, . . . , wn}. Supo-

nhamos [IV ]αβ = [aij]. Para cada i, com 1 ≤ i ≤ n, temos que

vi = a1iw1 + a2iw2 + · · ·+ aniwn.

Ora, como vi e vj são ortogonais, quando i 6= j, então

0 = 〈vi, vj〉 = a1ia1j + a2ia2j + · · ·+ anianj

= 〈(a1i, a2i, . . . , ani), (a1j, a2j, . . . , anj)〉, (7)

pois β é ortonormal. De (7) concluímos que as colunas de [IV ]αβ formam

vetores ortogonais em Rn. Vejamos agora que cada coluna de [IV ]αβ forma

um vetor unitário em Rn. De fato, se 1 ≤ i ≤ n, então

1 = 〈vi, vi〉 = a21i + a22i + · · ·+ a2ni ,

já que β é ortonormal. Assim, as colunas de [IV ]αβ formam vetores unitários

em Rn. Pela Proposição 7.4.6, [IV ]αβ é uma matriz ortogonal. �

Terminaremos a seção mostrando a relação entre os operadores ortogonais

e as matrizes ortogonais.

Sejam dados um espaço vetorial, com uma base α = {v1, . . . , vn}, e uma

matriz quadrada A = [aij] de ordem n. Podemos, como feito na Seção 1

Page 213: MA33 - Introdução à Álgebra Linear

4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 207

do Capítulo 6 para Rn e a base canônica, associar à matriz A um operador

linear TA, de�nido como segue:

TA(v) = (a11x1 + · · ·+ a1nxn, . . . , an1x1 + · · ·+ annxn),

onde x1, . . . , xn são as coordenadas de v relativamente à base α, ou seja

v = x1v1 + · · ·+ xnvn.

Proposição 7.4.8. Sejam α uma base ortonormal de V e T um operador

linear em V . Seja A ∈M(n, n).

(i) T é ortogonal se, e somente se, [T ]αα é ortogonal.

(ii) A é ortogonal se, e somente se, TA é ortogonal.

Demonstração Provaremos apenas o item (i), deixando a demonstração

do item (ii) para o leitor (veja Problema 4.10).

De fato, se α = {v1, v2, . . . , vn} é uma base ortonormal de V e se T é um o-

perador ortogonal em V então, pelo Teorema 7.4.5, β = {T (v1), T (v2), . . . , T (vn)}é uma base ortonormal de V . Se [T ]αα = [aij], então, para todo i, com

1 ≤ i ≤ n, temos

T (vi) = a1i v1 + a2i v2 + · · ·+ ani vn.

Como β é ortonormal, segue que 〈T (vi), T (vj)〉 = 0 se i6=j e 〈T (vi), T (vi)〉=1.

Por outro lado, sendo α é ortogonal, temos que

a1ia1j + a2ia2j + · · ·+ anianj =

〈a1i v1 + a2i v2 + · · ·+ ani vn, a1j v1 + a2j v2 + · · ·+ anj vn〉 =

〈T (vi), T (vj)〉 =

0 se i 6= j

1 se i = j,(8)

mostrando assim que as colunas de [T ]αα formam um conjunto ortonormal em

Rn. Pela Proposição 7.4.6, [T ]αα é uma matriz ortogonal.

Page 214: MA33 - Introdução à Álgebra Linear

208 CAPÍTULO 7. ESPAÇOS COM PRODUTO INTERNO

Suponhamos agora que [T ]αα = [aij] é uma matriz ortogonal. Para mos-

trarmos que T é ortogonal basta provarmos, pelo Teorema 7.4.5, que o con-

junto {T (v1), T (v2), . . . , T (vn)} é ortonormal em V . Mas isto pode ser facil-

mente veri�cado a partir de (8). �

Problemas

4.1* Sejam S e T operadores lineares num espaço com produto interno de

dimensão �nita e seja k ∈ R. Prove que:

(a) (S + T )∗ = S∗ + T ∗; (b) (kT )∗ = kT ∗;

(c) (ST )∗ = T ∗S∗; (d) (T ∗)∗ = T .

4.2 Considere o funcional linear φ : R3 → R de�nido por φ(x, y, z) = x +

4y − 5z. Encontre o vetor v em R3 tal que φ = φv.

4.3 Seja T : R3 → R3 dado por T (x, y, z) = (2x + 2y, 3x − 4z, y). Encontre

T ∗(x, y, z).

4.4 Mostre que a função

V → (V,R)

v 7→ φv

onde φv(u) = 〈u, v〉, para todo u ∈ V , é um isomor�smo de espaços vetoriais.

Mostre com isto que podemos transportar o produto interno de V para (V,R),

do seguinte modo:

〈φu, φv〉 = 〈u, v〉.

4.5 Demonstre o Lema 7.4.4.

4.6 Dentre os seguintes operadores lineares, veri�car quais são ortogonais:

(a) T : R2 → R2, T (x, y) = (−y,−x);

(b) T : R2 → R2, T (x, y) = (x+ y, x− y);

(c) T : R3 → R3, T (x, y, z) = (z, x,−y);

(d) T : R3 → R3, T (x, y, z) = (x, y cos θ + z sen θ,−y sen θ + z cos θ).

Page 215: MA33 - Introdução à Álgebra Linear

4. OPERADORES EM ESPAÇOS COM PRODUTO INTERNO 209

4.7* Encontre uma matriz ortogonal [aij] de ordem 3 cuja primeira linha é

dada por

a11 =1

3, a12 =

2

3, e a13 =

2

4.8 Mostre que o produto de matrizes ortogonais é uma matriz ortogonal.

4.9 Construa uma matriz ortogonal A = [aij] cuja primeira coluna seja:

(a) a11 =2√5, a21 =

−1√5;

(b) a11 =1

3, a21 =

−2

3e a31 =

−2

4.10 Conclua a demonstração da Proposição 7.4.8.

Page 216: MA33 - Introdução à Álgebra Linear

Bibliogra�a

[1] H. P. Bueno, Álgebra Linear, um segundo curso , Coleção Textos Univer-

sitários, SBM, 2006.

[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,

2001.

[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-

mática e Aplicações, IMPA, 2008.

[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção

PROFMAT, SBM, 2012.

[5] V. J. Katz, A History of Mathematics - an Introduction , HarperCollins

College Publishers, 1993.

[6] S. Lang, Introduction to Linear Algebra , 2nd edition, Undergraduate Texts

in Mathematics, Springer, 1986.

[7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária,

IMPA, 1998.

[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção

Matemática Universitária, IMPA, 2010.

300

Page 217: MA33 - Introdução à Álgebra Linear

8

210

Livro: Introdução à Álgebra LinearAutores: Abramo Hefez

Cecília de Souza Fernandez

Capítulo 8: Determinantes

Sumário

1 Propriedades dos Determinantes . . . . . . . . . . 211

1.1 Propriedades Características . . . . . . . . . . . . . 211

1.2 Propriedades Adicionais das Funções D . . . . . . 212

1.3 Propriedade Multiplicativa . . . . . . . . . . . . . . 215

2 Existência de Determinantes . . . . . . . . . . . . . 218

3 Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . 220

4 Regra de Cramer . . . . . . . . . . . . . . . . . . . . 224

Page 218: MA33 - Introdução à Álgebra Linear

1. PROPRIEDADES DOS DETERMINANTES 211

1 Propriedades dos Determinantes

Estudaremos nesta seção as propriedades dos determinantes de matrizes

quadradas, dividindo-as em três categorias, a saber:

1) Propriedades características, aquelas que bastam para determinar as fun-

ções determinantes;

2) Propriedades adicionais, aquelas que seguem de modo quase direto das

propriedades características;

3) Propriedade multiplicativa, que relaciona determinantes de produtos de

matrizes com os determinantes dos fatores. Essa propriedade é consequência

das propriedades características e de propriedades das matrizes anteriormente

estudadas.

1.1 Propriedades Características

Seja K um corpo1 e seja n um número natural, com n ≥ 2. Denotaremos

porMK(n), ou simplesmente porM(n), o espaço das matrizes quadradas de

ordem n com entradas no corpo K. Nosso objetivo, neste capítulo, é estender

a n > 3 a noção de determinante de uma matriz em M(n) que introduzimos

no Capítulo 4 nos casos n = 2 e n = 3.

Dada uma matriz A ∈ M(n), denotaremos por A1, . . . , An ∈ Kn os seus

vetores linhas e escrevemos

A =

A1

...

An

.Queremos �xar a nossa atenção sobre as funções D : M(n) → K que

possuem as seguintes propriedades:

(D1) D é linear como função de cada linha separadamente.

1O leitor pode �xar sua atenção nos casos K = R ou K = C, se com isto se sentir mais

confortável.

Page 219: MA33 - Introdução à Álgebra Linear

212 CAPÍTULO 8. DETERMINANTES

Isto signi�ca que se Aj = A′j + tA′′j , onde A′j, A

′′j ∈ Kn e t ∈ K, então

D

A1

...

A′j + tA′′j...

An

= D

A1

...

A′j...

An

+ tD

A1

...

A′′j...

An

.

(D2) Se duas linhas adjacentes Aj e Aj+1 de A são iguais, então D(A) = 0.

(D3) Se In representa a matriz identidade de M(n), então D(In) = 1.

Estas propriedades são satisfeitas, por exemplo, pelas funções determi-

nantes det : M(2) → K e det : M(3) → K introduzidas na Seção 3 do

Capítulo 4 (veja Problemas 3.1 e 3.3 do Capítulo 4.)

As Propriedades (D1) e (D2) de uma função D acarretam várias outras

propriedades, como veremos a seguir. Essas propriedades, juntamente com a

Propriedade (D3), determinam uma única função que chamaremos de função

determinante, ou simplesmente, determinante, conforme veremos na Seção 2.

Nas próximas subseções estudaremos mais propriedades de tais funções

D.

1.2 Propriedades Adicionais das Funções D

Nesta seção estudaremos as propriedades das funções D que decorrem

das Propriedades (D1) e (D2) da seção anterior.

Proposição 8.1.1. Seja j um número natural com 1 ≤ j ≤ n− 1. Se A′ é

a matriz obtida de A por meio de uma transformação elementar Lj ↔ Lj+1,

então D(A′) = −D(A).

Demonstração Considere a matriz B tal que Bj = Bj+1 = Aj + Aj+1 e

Bi = Ai, se i 6= j e i 6= j + 1.

Da Propriedade (D2) temos que D(B) = 0. Da Propriedade (D1) (utili-

Page 220: MA33 - Introdução à Álgebra Linear

1. PROPRIEDADES DOS DETERMINANTES 213

zada duas vezes), obtemos a igualdade

0 = D(B) = D

A1

...

Aj

Aj

...

An

+D

A1

...

Aj

Aj+1

...

An

+D

A1

...

Aj+1

Aj

...

An

+D

A1

...

Aj+1

Aj+1

...

An

,

da qual segue-se o resultado, pois sabemos, por (D2), que

D

A1

...

Aj

Aj

...

An

= D

A1

...

Aj+1

Aj+1

...

An

= 0.

Corolário 8.1.2. Se A é uma matriz com duas linhas iguais, então D(A) =

0.

Demonstração Com uma troca de linhas, podemos transformar a matriz A

em uma matriz A′ com duas linhas adjacentes iguais. Logo, pela proposição

anterior e pela Propriedade (D2), temos que

D(A) = ±D(A′) = 0.

Corolário 8.1.3. Se A′ é uma matriz obtida de A por uma transformação

elementar Li ↔ Lj, i, j = 1, . . . , n, com i 6= j, então D(A′) = −D(A).

Demonstração Usando a mesma ideia da prova da Proposição 8.1.1, con-

siderando neste caso a matriz B tal que Bi = Bj = Ai + Aj e Bk = Ak, se

k 6= i, j, obtemos o resultado com auxílio do Corolário 8.1.2. �

Page 221: MA33 - Introdução à Álgebra Linear

214 CAPÍTULO 8. DETERMINANTES

Corolário 8.1.4. Se uma matriz A′ é obtida de uma matriz A na qual

somamos a uma linha um múltiplo de outra, mantendo as demais inalteradas,

então D(A′) = D(A).

Demonstração Para i < j, sejam

A =

A1

...

Ai

...

Aj

...

An

, A′ =

A1

...

Ai + tAj

...

Aj

...

An

.

Temos da propriedade (D1) que

D(A′) = D(A) + tD(A′′), (1)

onde

A′′ =

A1

...

Aj

...

Aj

...

An

.

Pelo Corolário 8.1.2, temos que D(A′′) = 0, logo o resultado segue da igual-

dade (1), acima. �

Corolário 8.1.5. Se uma matriz A′ é obtida de uma matriz A na qual

somamos a uma linha uma combinação linear de outras, mantendo as demais

inalteradas, então D(A′) = D(A).

Demonstração Use repetidamente o Corolário 8.1.4. �

Page 222: MA33 - Introdução à Álgebra Linear

1. PROPRIEDADES DOS DETERMINANTES 215

Corolário 8.1.6. Se os vetores linhas de uma matriz A são linearmente

dependentes, então D(A) = 0.

Demonstração Se os vetores linhas da matriz são linearmente dependentes,

então uma das linhas é combinação linear das demais, seguindo-se o resultado

do Corolário 8.1.5.

1.3 Propriedade Multiplicativa

Nesta subseção, mostraremos como funções D possuindo as Propriedades

(D1), (D2) e (D3) da Seção 1 se comportam em relação à multiplicação de

matrizes.

Proposição 8.1.7. Sejam A e B elementos deM(n) e seja D : M(n)→ K

uma função possuindo as Propriedades (D1), (D2) e (D3).

(i) Se E é uma matriz elementar, então D(EA) = D(E)D(A).

(ii) Se A e B são matrizes equivalentes por linhas, então

D(A) 6= 0 ⇐⇒ D(B) 6= 0.

(iii) A é invertível se, e somente se, D(A) 6= 0.

(iv) D(AB) = D(A)D(B).

Demonstração (i) Seja E1 a matriz elementar obtida operando sobre In

com Li ↔ Lj. Temos que E1A é a matriz obtida de A mediante a operação

Li ↔ Lj, logo, pelo Corolário 8.1.3, temos que D(E1A) = −D(A). Por outro

lado, do Problema 1.3(a), temos que D(E1) = −1, o que acarreta o resultado

neste caso.

Seja E2 a matriz elementar obtida de In mediante a operação Li → Li +

tLj. Temos, pelo Corolário 8.1.4, que D(E2A) = D(A) e pelo Problema

1.3(a) temos que D(E2) = 1, daí obtendo o resultado neste caso também.

Finalmente, se E3 é a matriz elementar correspondente a Li → cLi, temos

de (D1) que D(E3A) = cD(A) e, pelo Problema 1.3(a), D(E3) = c. Logo,

D(E3A) = D(E3)D(A).

Page 223: MA33 - Introdução à Álgebra Linear

216 CAPÍTULO 8. DETERMINANTES

ii) A e B são equivalentes se, e somente se, B = Er · · ·E1A, onde E1, . . . , Er

são matrizes elementares. De (i), por indução, temos que

D(B) = D(Er) · · ·D(E1)D(A).

Como D(E) 6= 0, para toda matriz elementar E, vale o resultado.

iii) Se A é invertível, do Teorema 2.1.6, temos que A é equivalente a In, logo

por (ii) segue-se que D(A) 6= 0, já que D(In) = 1 6= 0.

Reciprocamente, se D(A) 6= 0, seja B a matriz equivalente a A na forma

escalonada. Como por (ii) temos que D(B) 6= 0, segue-se que B = In. Daí,

A é equivalente a In, logo, pelo Teorema 2.1.6, tem-se que A é invertível.

iv) Se A não é invertível, então AB é não invertível. Logo, por (iii), temos

que D(AB) = 0 e D(A) = 0, seguindo-se o resultado neste caso. Se A é

invertível, então, pelo Teorema 2.1.6, A = E1 · · ·Er onde os Ei's são matrizes

elementares. Portanto, por indução utilizando (i), temos que

D(AB) = D(E1) · · ·D(Er)D(B) = D(E1 · · ·Er)D(B) = D(A)D(B).

Teorema 8.1.8. Se existirem duas funções D : M(n) → K e D′ : M(n) →K satisfazendo as condições (D1), (D2) e (D3), então D = D′.

Demonstração Seja A ∈M(n). Se A não é invertível, então da Proposição

8.1.7(iii) temos que D(A) = 0 = D′(A).

Se A é invertível, logo, A = E1 · · ·Er, onde os Ei's são matrizes elementa-

res. Pela Proposição 8.1.7(iv), temos que D(A) = D(E1) · · ·D(Er) eD′(A) =

D′(E1) · · ·D′(Er). Pelo Problema 1.3(b), temos que D(Ei) = D′(Ei), para

todo i = 1, . . . , r, logo D(A) = D′(A). �

Assim, temos assegurada a unicidade de uma função D : M(n) → K,

possuindo as Propriedades (D1), (D2) e (D3), caso tal função exista. Vamos,

na próxima seção, mostrar que tal função existe, a qual passaremos a denotar

por det e a chamar de função determinante . Para n = 2 e n = 3, as funções

det : M(2)→ K e det : M(3)→ K, que introduzimos no Capítulo 4, são as

Page 224: MA33 - Introdução à Álgebra Linear

1. PROPRIEDADES DOS DETERMINANTES 217

únicas funções que possuem as Propriedades (D1), (D2) e (D3), com domínios

M(2) eM(3), respectivamente.

Problemas

1.1 Mostre que se a matriz A ∈M(n) possui uma linha nula, então D(A) =

0.

1.2 Seja D : M(n)→ K uma função que possui as Propriedades (D1) e (D2).

Mostre que se A é a matriz diagonal Diag(a11, . . . , ann) (com a notação do

Problema 2.15, Capítulo 1), então

D(Diag(a11, . . . , ann)) = a11 . . . annD(In).

Em particular, conclua que D(c In) = cnD(In), onde c ∈ K.

1.3 Seja D : M(n) → K, possuindo as Propriedades (D1) e (D2), e sejam

E1, E2 e E3 matrizes elementares obtidas da matriz identidade In mediante,

respectivamente, uma operação do tipo Li ↔ Lj, Li → Li + tLj, Li → cLi,

para i 6= j.

a) Mostre que

D(E1) = −D(In), D(E2) = D(In) e D(E3) = cD(In).

b) Se D,D′ : M(n)→ K possuem as propriedades (D1), (D2) e (D3), então

D(E1) = D′(E1) = −1, D(E2) = D′(E2) = 1 e D(E3) = D′(E3) = c.

1.4 Seja A uma matriz invertível de ordem n e suponha que exista a função

det : M(n)→ K. Mostre que

det(A−1) =1

detA.

1.5 Seja E ∈ M(n) uma matriz elementar. Com a mesma hipótese do

problema anterior, mostre que det(Et) = det(E).

Sugestão Utilize o Problema 2.1.9.

Page 225: MA33 - Introdução à Álgebra Linear

218 CAPÍTULO 8. DETERMINANTES

2 Existência de Determinantes

Nesta seção, estabeleceremos a existência das funções determinantes para

valores de nmaiores do que 3, que já sabemos existirem para n = 2 e n = 3. A

demonstração de tal existência será feita por indução sobre n. Mostraremos

que se existe uma função D′ : M(n − 1) → K que possui as Propriedades

(D1), (D2) e (D3), então existe uma função D : M(n) → K que possui as

mesmas propriedades.

Na realidade, mostraremos que a função D pode ser obtida de vários

modos possíveis a partir de D′, o que permitirá certa �exibilidade no cálculo

de D(A), onde A é uma matriz quadrada de ordem n.

Sejam n ≥ 2 e A ∈ M(n). Para cada par (i, j) ∈ N2, com 1 ≤ i, j ≤n, de�ne-se a matriz A(i|j) como a matriz (n − 1) × (n − 1) obtida de A

suprimindo-se a i-ésima linha e a j-ésima coluna.

Nosso resultado está contido no próximo teorema.

Teorema 8.2.1. Sejam n ≥ 3 e D′ : M(n− 1)→ K satisfazendo as condi-

ções (D1), (D2) e (D3). Dado j com 1 ≤ j ≤ n, a função Dj : M(n) → K

de�nida por

Dj(A) =n∑

i=1

(−1)i+jaijD′(A(i|j)),

onde A = [aij] ∈M(n), também satisfaz as condições (D1), (D2) e (D3).

Demonstração Fixemos j. Para cada i, temos que D′(A(i|j)) é indepen-

dente da linha i, ou seja, dos elementos aik, k = 1, . . . , n, e é separadamente

linear em cada uma das n−1 linhas restantes de A. Por outro lado, (−1)i+jaij

é independente das entradas de A(i|j) e é linear na linha i de A. É, portanto,fácil veri�car que (−1)i+jaijD

′(A(i|j)) é separadamente linear nas linhas de

A. Logo, Dj é uma soma de funções de A que são separadamente lineares

na linhas de A, donde se conclui que Dj possui a Propriedade (D1). Para

provar que Dj possui a Propriedade (D2), suponhamos que A ∈M(n) tenha

as linhas Ak e Ak+1 iguais.

Se i 6= k e i 6= k + 1, a matriz A(i|j) tem duas linhas iguais, logo

Page 226: MA33 - Introdução à Álgebra Linear

2. EXISTÊNCIA DE DETERMINANTES 219

D′(A(i|j)) = 0. Daí temos

Dj(A) = (−1)k+jakjD′(A(k|j)) + (−1)k+j+1ak+1,jD

′(A(k + 1|j)).

Mas, akj = ak+1,j e A(k|j) = A(k + 1|j), logo Dj(A) = 0, já que as duas

parcelas que compõem Dj(A) são uma simétrica da outra.

Finalmente, sendo δij as entradas da matriz In, temos que

Dj(In) =n∑

i=1

(−1)i+jδijD′(In(i|j)) = δjjD

′(In(j|j)) = D′(In−1) = 1,

já que In(j|j) = In−1 e D′(In−1) = 1, mostrando que Dj possui a Propriedade

(D3). �

Esse teorema nos mostra que para calcular o determinante de uma matriz

A, escolhe-se uma coluna j qualquer de A, obtendo

det(A) =n∑

i=1

(−1)i+jaij det(A(i|j)),

que é usualmente chamado de desenvolvimento de Laplace de det(A) segundo

os elementos da coluna j.

Exemplo 1. Calculemos det(A), onde

A =

2 3 1 0

0 1 3 2

0 5 −1 0

1 −2 1 1

.Temos do Teorema 8.2.1, desenvolvendo segundo os elementos da primeira

coluna, que

det(A) = 2 det

1 3 2

5 −1 0

−2 1 1

− det

3 1 0

1 3 2

5 −1 0

.Calculando os determinantes 3 × 3, acima, pela Regra de Sarrus, obtemos

que det(A) = −36.

Page 227: MA33 - Introdução à Álgebra Linear

220 CAPÍTULO 8. DETERMINANTES

Problemas

2.1 Mostre que se uma matriz A possui uma coluna nula, então det(A) = 0.

2.2* Prove que o determinante de uma matriz triangular superior (resp.

inferior) é o produto dos elementos de sua diagonal principal. Mostre que uma

tal matriz é invertível se, e somente se, suas entradas na diagonal principal

são todas não nulas.

2.3* Seja a ∈ R. Prove que

det

1 1 1 1

1 a a2 a3

1 a2 a3 a4

1 a3 a4 a5

= 0.

2.4 Considere a matriz de Vandermonde 2

A =

1 a1 a21 . . . an−11

1 a2 a22 . . . an−12...

......

...

1 an a2n . . . an−1n

.Mostre que

det(A) =∏i<j

(aj − ai).

3 Matriz Adjunta

Seja A = [aij] ∈ M(n). De�ne-se o cofator do elemento aij da matriz A

como

∆ij(A) = (−1)i+j det(A(i|j)).

A matriz [∆ij(A)] ∈ M(n) será chamada de matriz dos cofatores da

matriz A e sua transposta será chamada de matriz adjunta de A e denotada

adj(A).

2Em homenagem a Alexandre-Theóphile Vandermonde (França 1735 � 1796).

Page 228: MA33 - Introdução à Álgebra Linear

3. MATRIZ ADJUNTA 221

Exemplo 1. Seja

A =

1 0 0

1 2 1

0 0 −1

.Temos que ∆11(A) = −2, ∆12(A) = 1, ∆13(A) = ∆21(A) = ∆23(A) =

∆31(A) = 0, ∆22(A) = ∆32(A) = −1 e ∆33(A) = 2. Logo,

[∆ij(A)] =

−2 1 0

0 −1 0

0 −1 2

.Portanto,

adj(A) =

−2 0 0

1 −1 −1

0 0 2

.A seguir, veremos uma relação entre uma matriz e a sua adjunta.

Proposição 8.3.1. Seja A uma matriz quadrada de ordem n. Então

adj(A) · A = det(A) In .

Demonstração Denotemos por B a matriz adj(A) · A. Queremos mostrar

que

bij =

{det(A), se i = j

0, se i 6= j .

Denotando ∆ij(A) por ∆ij, temos que

[bij] =

∆11 . . . ∆n1

......

∆1i . . . ∆ni

......

∆1n . . . ∆nn

a11 . . . a1j . . . an1...

......

ai1 . . . aij . . . ain...

......

an1 . . . anj . . . ann

.

Page 229: MA33 - Introdução à Álgebra Linear

222 CAPÍTULO 8. DETERMINANTES

Logo, pelo Teorema 8.2.1,

bjj =n∑

i=1

aij∆ij = det(A).

Por outro lado, seja i 6= j. Supondo, sem perda de generalidade, que i < j,

temos

bij =n∑

k=1

akj∆ki =n∑

k=1

(−1)i+kakj det(A(k|i)),

que é o determinante da matriza11 . . . a1j . . . a1j . . . an1...

......

...

an1 . . . anj . . . anj . . . ann

,desenvolvido segundo os elementos da i-ésima coluna, o qual é nulo. �

Corolário 8.3.2. Se A é uma matriz invertível, então

A−1 =1

det(A)adj(A).

Demonstração Se A é invertível, então det(A) 6= 0 e, portanto,(1

det(A)adj(A)

)· A = In,

o que implica que

A−1 =1

det(A)adj(A).

A expressão acima para a inversa de uma matriz A de ordem n é muito

interessante do ponto de vista teórico, mas pouco útil do ponto de vista

prático, pois para utilizá-la para calcular a inversa de A seria necessário

calcular n2 determinantes de ordens n− 1 (os cofatores dos elementos de A).

Isto é computacionalmente impraticável se n é grande. Por outro lado, o

Page 230: MA33 - Introdução à Álgebra Linear

3. MATRIZ ADJUNTA 223

método de inversão por escalonamento apresentado na Seção 1 do Capítulo

2 é computacionalmente muito mais e�caz.

Vamos, a seguir, relacionar o determinante de uma matriz com o de sua

transposta.

Sabemos do Problema 1.5 que se E é uma matriz elementar qualquer,

então det(Et) = det(E).

Seja A uma matriz quadrada de ordem n, qualquer. Logo, existem matri-

zes elementares E1, . . . , Er tais que Er · · ·E1A = B, onde ou B é uma matriz

com a última linha nula, ou B = In.

Se B possui uma linha nula, Bt terá uma coluna nula, logo det(B) =

det(Bt) = 0 (cf. Problema 2.1). Se B = In, então det(B) = det(Bt) = 1.

Podemos escrever

A = F1 · · ·FrB, (1)

onde Fi = E−1i , i = 1, . . . , n, são também matrizes elementares (cf. Corolário

2.1.5). Tomando transpostas em (1), obtemos

At = BtF tr · · ·F t

1. (2)

Tomando, agora, determinantes em (1) e (2), obtemos

det(A) = det(F1) · · · det(Fr) det(B) e det(At) = det(Bt) det(F tr) · · · det(F t

1),

o que acarreta que det(At) = det(A), pois det(B) = det(Bt) e det(Fi) =

det(F ti ), para todo 1 ≤ i ≤ r.

Assim, provamos o seguinte resultado:

Proposição 8.3.3. O determinante de uma matriz quadrada é igual ao

determinante de sua transposta.

Portanto, toda a�rmação sobre o determinante de uma matriz quadrada,

relativamente a suas linhas, também vale para suas colunas e vice-versa. As-

sim, em particular, podemos calcular determinantes usando desenvolvimentos

de Laplace segundo os elementos de uma linha Li, ou seja,

det(A) =n∑

j=1

(−1)i+jaij det(A(i|j)).

Page 231: MA33 - Introdução à Álgebra Linear

224 CAPÍTULO 8. DETERMINANTES

Problemas

3.1 Mostre que a inversa de uma matriz triangular inferior é triangular infe-

rior e a inversa de uma matriz triangular superior é triangular superior.

3.2 Mostre que se det(A) = 1 e todas as entradas de A são números inteiros,

então todas as entradas de A−1 também são números inteiros.

3.3 Mostre que se A é invertível, então adj(A) é invertível e

(adj(A))−1 = adj(A−1).

3.4 Como é afetada a matriz inversa A−1 se

a) permutarmos em A a i-ésima com a j-ésima linha?

b) a i-ésima linha de A é multiplicada por uma constante k não nula?

c) a i-ésima linha de A é somada à k vezes a j-ésima linha?

4 Regra de Cramer

Nesta seção, mostraremos como expressar a solução única de um sistema

de n equações com n incógnitas AX = B, onde A é uma matriz invertível.

É a chamada Regra de Cramer, que apresentamos para n = 2 e n = 3 na

Seção 3 do Capítulo 4, que se relaciona naturalmente com os determinantes

e que serviu de motivação para a sua introdução e posterior estudo de suas

propriedades.

Teorema 8.4.1. (Regra de Cramer) Seja AX = B um sistema linear

n× n. Se det(A) 6= 0, então o sistema tem uma única solução dada por

xj =det(A(j))

det(A), j = 1, . . . , n,

onde A(j) denota a matriz obtida de A substituindo a sua j-ésima coluna pela

única coluna de B.

Page 232: MA33 - Introdução à Álgebra Linear

4. REGRA DE CRAMER 225

Demonstração Como det(A) 6= 0, segue-se da Proposição 8.1.7(iii) que A

é invertível. Portanto, a solução do sistema é dada por

X = A−1 ·B =1

det(A)adj(A) ·B

=1

det(A)

∆11 . . . ∆n1

∆12 . . . ∆n2

......

∆1n . . . ∆nn

b1

b2...

bn

=1

det(A)

b1∆11 + b2∆21 + · · ·+ bn∆n1

b1∆12 + b2∆22 + · · ·+ bn∆n2

...

b1∆1n + b2∆2n + · · ·+ bn∆nn

,mostrando que o elemento da j-ésima linha da matriz X é

xj =b1∆1j + b2∆2j + · · ·+ bn∆nj

det(A). (1)

Considerando a matriz

A(j) =

a11 . . . a1,j−1 b1 a1,j+1 . . . a1n...

......

......

......

an1 . . . an,j−1 bn an,j+1 . . . ann

,tem-se claramente que

b1∆1j + · · ·+ bn∆nj = det(A(j)),

o que conclui a prova, em vista de (1). �

Exemplo 1. Usemos a regra de Cramer para resolver o sistema linearx1 + 2x2 + x3 = 5

−x1 + 2x2 + 2x3 = 0

x1 + 2x2 + 3x3 = −1.

Page 233: MA33 - Introdução à Álgebra Linear

226 CAPÍTULO 8. DETERMINANTES

Temos que

A =

1 2 1

−1 2 2

1 2 3

, A(1) =

5 2 1

0 2 2

−1 2 3

, A(2) =

1 5 1

−1 0 2

1 −1 3

e

A(3) =

1 2 5

−1 2 0

1 2 −1

.Como det(A) = 8 6= 0, det(A(1)) = 8, det(A(2)) = 28 e det(A(3)) = −24,

a Regra de Cramer nos dá

x1 = 1, x2 = 7/2 e x3 = −3.

Problemas

4.1 Resolva pela regra de Cramer os seguintes sistemas lineares:

(a)

2x+ y + 3z = 0

4x+ 2y + 2z = 0

2x+ 5y + 3z = 0 ;

(b)

−2x− y + 2w = 1

3x+ y − 2z − 2w = 0

−4x− y + 2z + 3w = 2

3x+ y − z − 2w = −1 .

Page 234: MA33 - Introdução à Álgebra Linear

Bibliogra�a

[1] H. P. Bueno, Álgebra Linear, um segundo curso , Coleção Textos Univer-

sitários, SBM, 2006.

[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,

2001.

[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-

mática e Aplicações, IMPA, 2008.

[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção

PROFMAT, SBM, 2012.

[5] V. J. Katz, A History of Mathematics - an Introduction , HarperCollins

College Publishers, 1993.

[6] S. Lang, Introduction to Linear Algebra , 2nd edition, Undergraduate Texts

in Mathematics, Springer, 1986.

[7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária,

IMPA, 1998.

[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção

Matemática Universitária, IMPA, 2010.

300

Page 235: MA33 - Introdução à Álgebra Linear

9

227

Livro: Introdução à Álgebra LinearAutores: Abramo Hefez

Cecília de Souza Fernandez

Capítulo 9: Diagonalização deOperadores

Sumário

1 Autovalores e Autovetores . . . . . . . . . . . . . . 228

2 Polinômio Característico . . . . . . . . . . . . . . . 234

3 Diagonalização de Operadores . . . . . . . . . . . . 244

4 O Teorema Espectral para Operadores Simétricos 251

5 Reconhecimento de Cônicas . . . . . . . . . . . . . 255

Page 236: MA33 - Introdução à Álgebra Linear

228 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES

Vimos no Capítulo 6 que um operador linear em V , onde V tem dimensão

�nita, pode ser representado por uma matriz. Sendo as matrizes diagonais

as mais simples do ponto de vista das operações matriciais (cf. Problema

2.15, Capítulo 1), nos perguntamos se dado um operador linear T , é sempre

possível representá-lo por uma matriz diagonal? Mais precisamente, quere-

mos saber se para todo operador T existe uma base α de V tal que [T ]αα seja

uma matriz diagonal.

A resposta é que nem sempre existe uma tal base. Por exemplo, o opera-

dor T em R2, cuja matriz na base canônica é dada por

A =

[0 0

1 0

],

não adimite uma tal representação. De fato, se fosse possível achar uma base

α tal que a matriz de T nesta base é diagonal, teríamos PAP−1 = C, onde

P é uma matriz 2 × 2 invertível e C uma matriz diagonal. Como A2 = 0,

isto acarretaria que

C2 =(PAP−1

)2= PA2P−1 = 0.

Logo, C = 0, o que implicaria que A = 0; uma contradição.

Diremos que operador de�nido sobre um espaço vetorial V de dimen-

são �nita é diagonalizável, quando for possível representá-lo por uma matriz

diagonal em alguma base de V .

O resultado central deste capítulo é uma versão de um teorema chamado

Teorema Espectral que garante que todo operador simétrico é diagonalizável.

1 Autovalores e Autovetores

Seja T : V → V um operador linear. Um número real c será dito um

autovalor de T se existir um vetor não nulo v em V tal que T (v) = cv. O

vetor v é chamado de autovetor de T associado a c.

Page 237: MA33 - Introdução à Álgebra Linear

1. AUTOVALORES E AUTOVETORES 229

Observemos que se v é um autovetor de um operador T associado a um

autovalor c, então todo múltiplo por escalar de v é também um autovetor de

T associado a c. Mais ainda, se A(c) = {v ∈ V ; T (v) = cv}, então A(c) éum subespaço vetorial de V (veja Problema 1.1), chamado autoespaço de T

associado a c. Note que A(c) é formado pelo vetor nulo de V e por todos os

autovetores de T associados a c.

Vejamos a seguir alguns exemplos.

Exemplo 1. Seja T : R2 → R2 o operador linear dado por T (x, y) =

(4x − y, 2x + y). Queremos determinar c ∈ R e v = (x, y) ∈ R2, não

nulo, tais que T (x, y) = c(x, y), ou seja, tais que (4x − y, 2x + y) = c(x, y).

Equivalentemente, queremos determinar c ∈ R e v = (x, y) ∈ R2, não nulo,

tais que 4x− y = cx

2x+ y = cy.(1)

Da primeira equação do sistema (1), temos y = 4x − cx. Substituindo este

valor de y na segunda equação do sistema, obtemos

x(c2 − 5c+ 6) = 0, (2)

que é satisfeita se x = 0 ou c2 − 5c + 6 = 0. Se x = 0, então y = 0. Mas,

v = (x, y) não é o vetor nulo. Assim, segue de (2) que c2 − 5c + 6 = 0.

Portanto, c = 2 e c = 3 são os autovalores de T . Vamos agora calcular os

autovetores de T associados a c = 2. De (1) obtemos o sistema4x− y = 2x

2x+ y = 2y,

que equivale à equação 2x − y = 0, cujo conjunto solução é dado por

{(x, 2x) ; x ∈ R}. Assim, os autovetores de T associados a c = 2 são os

vetores da forma (x, 2x), em que x ∈ R, x 6= 0. Para calcularmos os autove-

tores de T associados a c = 3, devemos resolver o sistema4x− y = 3x

2x+ y = 3y,

Page 238: MA33 - Introdução à Álgebra Linear

230 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES

que equivale a resolver a equação x − y = 0, cujo conjunto solução é dado

por {(x, x) ; x ∈ R}. Assim, os autovetores de T associados a c = 3 são os

vetores da forma (x, x), com x ∈ R, x 6= 0.

Exemplo 2. Seja T : R2 → R2 o operador linear dado por T (x, y) = (−y, x).Se c ∈ R e v = (x, y) ∈ R2, v 6= 0, são tais que T (x, y) = c(x, y), então

(−y, x) = c(x, y).

Equivalentemente, cx = −y

cy = x,(3)

donde obtemos a equação (c2+1)y = 0. Como c ∈ R, a equação (c2+1)y = 0

é veri�cada somente se y = 0. Mas se y = 0, segue da segunda equação do

sistema (3) que x = 0. Como v não é o vetor nulo, isso não pode ocorrer.

Concluímos, então, que T não tem autovalores nem autovetores.

Portanto, o exemplo acima nos mostra que:

Nem todo operador linear possui autovalores e autovetores .

O estudo de autovalores teve início com Cauchy no começo do século

XIX em seu trabalho sobre formas quadráticas. Contudo, os primeiros pro-

blemas envolvendo autovalores apareceram, de forma implícita, durante o

século XVIII, com o estudo de soluções de sistemas de equações diferenci-

ais lineares com coe�cientes constantes. Jean le Rond d'Alembert (França,

1717 - 1783), em seus trabalhos datando entre 1743 e 1758, e motivado pelo

estudo do movimento de uma corda com um número �nito de massas (aqui,

por simplicidade, consideramos apenas três), chegou no seguinte sistema:

d2yidt2

+3∑j=1

aijyj = 0, i = 1, 2, 3.

Para resolver este sistema, d'Alembert decidiu multiplicar a i-ésima equação

por uma constante vi, para cada i, e somar as equações, obtendo3∑i=1

vid2yidt2

+3∑

i,j=1

viaijyj = 0.

Page 239: MA33 - Introdução à Álgebra Linear

1. AUTOVALORES E AUTOVETORES 231

Denotando B = [aij]t e se os vi's são escolhidos de modo que, para alguma

constante λ,3∑i=1

viaij + λvj = 0, para j = 1, 2, 3,

isto é, se (v1, v2, v3) é um autovetor correspondente ao autovalor λ do opera-

dor TB, a substituição u = v1y1 + v2y2 + v3y3 reduz o sistema original a uma

única equação diferenciald2u

dt2− λu = 0,

que é facilmente resolvida com métodos desenvolvidos por Euler1.

A seguinte proposição mostra que autovetores associados a autovalores

distintos são linearmente independentes.

Proposição 9.1.1. Seja T : V→V um operador linear e sejam c1, c2, . . . ,

cr autovalores distintos de T . Se v1, v2, . . . , vr são autovetores associados

aos autovalores c1, c2, . . . , cr, respectivamente, então {v1, v2, . . . , vr} é linear-

mente independente .

Demonstração A prova será feita por indução sobre r. O resultado é válido

para r = 1, pois se T : V → V é um operador linear com autovalor c1 e se v1é um autovetor de T associado a c1, então {v1} é linearmente independente,

pois v1 6= 0. Suponhamos agora o resultado válido para r−1 e vamos prová-lo

para r, r ≥ 2. Para isto, consideremos a equação

a1v1 + a2v2 + · · ·+ arvr = 0, (4)

1Leonhard Paul Euler (Suíça, 1707 - 1783) é considerado o matemático mais prolífero de

toda a história. Era também astrônomo, físico, engenheiro e químico. A coleção completa

dos livros e trabalhos cientí�cos de Euler (mais de 870 artigos e livros) chega a mais

de oitenta volumes. Ele deu grandes contribuições à geometria analítica, trigonometria,

cálculo in�nitesimal e teoria dos números, continuando a trabalhar mesmo depois de ter

�cado quase cego em 1771. Sua prodigiosa memória permitia que realizasse complexos e

longos cálculos mentais e, dessa forma, ditar seus artigos para seus �lhos e outros, até a

sua morte.

Page 240: MA33 - Introdução à Álgebra Linear

232 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES

onde a1, a2, . . . , ar são números reais. Aplicando T em (4), obtemos

a1(c1v1) + a2(c2v2) + · · ·+ ar(crvr) = 0, (5)

já que T (vj) = cjvj, para todo 1 ≤ j ≤ r. Por outro lado, T possui pelo

menos um autovalor não nulo. Sem perda de generalidade, suponhamos que

cr 6= 0. Multiplicando (4) por cr, obtemos

a1(crv1) + a2(crv2) + · · ·+ ar(crvr) = 0. (6)

De (5) e (6),

a1(c1 − cr)v1 + a2(c2 − cr)v2 + · · ·+ ar−1(cr−1 − cr)vr−1 = 0. (7)

Pela hipótese de indução, {v1, v2, . . . , vr−1} é linearmente independente. Por-

tanto, de (7), segue-se que

aj(cj − cr) = 0 para todo 1 ≤ j ≤ r − 1. (8)

Como os autovalores c1, c2, . . . , cr são todos distintos, de (8) obtemos que

aj = 0 para todo 1 ≤ j ≤ r−1. Substituindo estes valores em (4), concluímos

que ar = 0 também, já que vr 6= 0. Portanto, {v1, v2, . . . , vr} é independente.�

Corolário 9.1.2. Seja T : V → V um operador linear. Se dimV = n e T

possui n autovalores distintos, então V possui uma base formada por auto-

vetores de T .

Demonstração Pela Proposição 9.1.1, n autovalores distintos implicam na

existência de um conjunto de autovetores {v1, v2, . . . , vn} linearmente inde-

pendente. Como G(v1, v2, . . . , vn) ⊂ V e dimG(v1, v2, . . . , vn) = n = dimV ,

temos que G(v1, v2, . . . , vn) = V , logo {v1, v2, . . . , vn} é uma base de V . �

Na Seção 3, veremos que a existência de uma base de V formada por

autovetores de um operador linear T : V → V é equivalente à existência de

uma representação deste operador por uma matriz diagonal. Antes, porém,

na próxima seção, vamos introduzir a noção de polinômio característico que

Page 241: MA33 - Introdução à Álgebra Linear

1. AUTOVALORES E AUTOVETORES 233

nos permitirá determinar mais facilmente os autovalores e autovetores de um

operador linear.

Problemas

1.1* Seja T : V → V um operador linear e c ∈ R um autovalor de T . Prove

que o autoespaço A(c) de T associado a c é um subespaço vetorial de V .

1.2 Determine os autovalores e os autovetores das seguintes transformações

lineares:

(a) T : R2 → R2 dada por T (x, y) = (x− y, x);

(b) T : R3 → R3 dada por T (x, y, z) = (x,−2x− y, 2x+ y + 2z);

(c) T : R[x]2 → R[x]2 dada por T (ax2 + bx+ c) = ax2 + cx+ b;

(d) T :M(2)→M(2) dada por T

([a b

c d

])=

[2c a+ c

b− 2c d

].

1.3 Determine os autovalores e os autovetores dos seguintes operadores cujas

matrizes na base canônica são:

(a) A =

[2 2

2 2

]; (b) A =

1 0 0

−1 0 −21 1 3

; (c) A =

4 0 2 0

0 2 0 0

0 0 2 0

0 −1 0 0

.1.4 Suponha que c é um autovalor de um operador invertível T . Mostre que

c−1 é um autovalor de T−1.

1.5 Determine T (x, y, z) sabendo que T : R3 → R3 é um operador linear

com autoespaços, associados aos autovalores c1 = 1 e c2 = 3, dados por

{(x, x+ y, y) ; x, y ∈ R} e {(0, x, 2x) ; x ∈ R}, respectivamente.

1.6* Os autovalores de um operador linear T : R3 → R3 são c1 = 1, c2 = 2

e c3 = −1, sendo v1 = (1, 1, 1), v2 = (0, 1, 1) e v3 = (−1, 1, 0) os respectivosautovetores associados. Determine T (x, y, z).

1.7 Suponha que v é um autovetor dos operadores T e S. Mostre que v é

também um autovetor do operador aT+bS, onde a, b são escalares quaisquer.

Page 242: MA33 - Introdução à Álgebra Linear

234 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES

1.8 Encontre uma matriz 3× 3 com autovalores c = 0, 1 e −1 e autovetores

associados v1 = (0, 1,−1), v2 = (1,−1, 1) e v3 = (0, 1, 1), respectivamente.

2 Polinômio Característico

Seja A uma matriz quadrada de ordem n. A matriz t In−A, onde t é uma

indeterminada, é chamada matriz característica de A. O determinante dessa

matriz é um polinômio em t, chamado polinômio característico da matriz A

e denotado por PA(t).

Exemplo 1. Seja A =

[4 −12 1

]a matriz, na base canônica, do operador do

Exemplo 1, da Seção 1. A matriz característica de A é a matriz

tI2 − A =

[t− 4 1

−2 t− 1

]e o polinômio característico de A é o polinômio

PA(t) = det

[t− 4 1

−2 t− 1

]= t2 − 5t+ 6.

Exemplo 2. Consideremos a matriz A =

[0 −11 0

], na base canônica, do

operador do Exemplo 2, da Seção 2. A matriz característica de A é a matriz[t 1

−1 t

]e o polinômio característico de A é o polinômio

PA(t) = t2 + 1.

Observemos que as raízes do polinômio do Exemplo 1, ou seja, os números

reais t0 tais que PA(t0) = 0, são os autovalores do operador dado no Exemplo

1 da Seção 1. Note que o operador do Exemplo 2, da Seção 1, não tem

Page 243: MA33 - Introdução à Álgebra Linear

2. POLINÔMIO CARACTERÍSTICO 235

autovalores e o polinômio característico de sua matriz associada não tem

raízes. Surge, então, naturalmente a seguinte pergunta:

Existe uma relação entre os autovalores de um operador e as raízes do

polinômio característico de alguma matriz associada a ele?

A resposta é a�rmativa e é dada pelo resultado a seguir.

Teorema 9.2.1. Seja T : V → V um operador linear e seja α = {v1, v2, . . . , vn}uma base de V . Então:

(i) v é um autovetor de T associado a t0 se, e somente se, [v]α é uma

solução não trivial do sistema linear AX = 0, onde A = t0In − [T ]αα;

(ii) t0 ∈ R é um autovalor de T se, e somente se, t0 é uma raiz do polinômio

característico da matriz [T ]αα, ou seja, P[T ]αα(t0) = 0.

Demonstração (i): Seja t0 um autovalor de T e v um autovetor de T

associado a t0. Como [T (v)]α = [T ]αα [v]α e T (v) = t0v, temos

[t0 v]α = [T ]αα [v]α,

ou seja, t0In[v]α = [T ]αα [v]α. Equivalentemente,

(t0In − [T ]αα)[v]α = 0. (9)

(ii): Consideremos o sistema linear AX = 0, onde A = t0In − [T ]αα. De (9),

segue que AX = 0 tem uma solução não trivial, a saber [v]α, já que v não é o

vetor nulo. Pelo Corolário 2.2.7, A não é invertível. Assim, pela Proposição

8.1.7(iii), P[T ]αα(t0) = 0, provando que t0 é uma raiz de P[T ]αα .

Reciprocamente, se t0 ∈ R é uma raiz de P[T ]αα , então P[T ]αα(t0) = 0.

Portanto, o sistema linear AX = 0, onde A = t0In − [T ]αα, tem uma solução

X1 =[x1 x2 . . . xn

]tnão nula, pois detA = 0 (cf. Corolário 2.2.7 e

Proposição 8.1.7(iii)). Vamos provar que t0 é um autovalor de T e que v =

x1v1 + x2v2 + · · ·+ xnvn é um autovetor de T associado a t0. De fato, como

X1 é uma solução do sistema AX = 0, temos AX1 = 0. Equivalentemente,

(t0In − [T ]αα)X1 = t0X1 − [T ]ααX1 = 0,

Page 244: MA33 - Introdução à Álgebra Linear

236 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES

ou seja,

[t0v]α = t0[v]α = [T ]αα[v]α = [T (v)]α, (10)

pois, pela construção de v, X1 = [v]α. De (10), obtemos que [T (v)]α =

[t0v]α, isto é, as coordenadas dos vetores T (v) e t0v na base α são iguais.

Consequentemente, estes vetores são iguais, ou seja, T (v) = t0v. Como por

construção v 6= 0, segue-se que t0 é um autovalor de T e v é um autovetor de

T associado a t0. �

Exemplo 5. Vamos refazer o Exemplo 1 da Seção 1, utilizando o Teorema

9.2.1. Reconsidere o operador linear T : R2 → R2 dado por T (x, y) = (4x −y, 2x+ y) e seja α a base canônica de R2. Temos

P[T ]αα(t) = det

[t− 4 1

−2 t− 1

]= t2 − 5t+ 6.

Como t2 − 5t + 6 = 0 somente para t1 = 2 e t2 = 3, o Teorema 9.2.1 nos

mostra que t1 e t2 são os únicos autovalores de T . Para determinarmos os

autovetores de T associados a t1, devemos resolver o sistema linear[t1 − 4 1

−2 t1 − 1

][x1

x2

]=

[0

0

],

ou seja, [−2 1

−2 1

][x1

x2

]=

[0

0

],

que equivale à equação linear −2x1 + x2 = 0. Assim, o autoespaço de T

associado a t1 é {(x, 2x) ; x ∈ R}. Agora, para determinarmos os autovetores

de T associados a t2, devemos resolver o sistema linear[t2 − 4 1

−2 t2 − 1

][t1

t2

]=

[0

0

],

ou seja, [−1 1

−2 2

][t1

t2

]=

[0

0

],

Page 245: MA33 - Introdução à Álgebra Linear

2. POLINÔMIO CARACTERÍSTICO 237

que equivale à equação linear −x1 + x2 = 0. Assim, o autoespaço de T

associado a t2 é {(x, x) ; x ∈ R}.

Exemplo 4. Seja T :M(2)→M(2) o operador linear dado por T (A) = At,

onde A ∈M(2). Seja α a base canônica deM(2). Temos

P[T ]αα(t) = det

t− 2 0 0 0

0 t −1 0

0 −1 t 0

0 0 0 t− 1

= (t− 1)3(t+ 1).

Portanto, t1 = 1 e t2 = −1 são os autovalores de T . Pelo Teorema 9.2.1,

M =

[x y

z w

]é um autovetor associado a t1 = 1 se, e somente se,

0 0 0 0

0 1 −1 0

0 −1 1 0

0 0 0 0

x

y

z

w

=

0

0

0

0

.Assim, {[

x y

y w

]; x, y, w ∈ R

}é o autoespaço associado a t1 = 1. Agora, para calcularmos os autovetores

M =

[x y

z w

]associados a t2 = −1, devemos resolver o sistema linear

−2 0 0 0

0 −1 −1 0

0 −1 −1 0

0 0 0 −2

x

y

z

w

=

0

0

0

0

.Como o conjunto solução do sistema acima é dado por x = w = 0 e y = −z,segue que {[

0 y

−y 0

]; y ∈ R

}

Page 246: MA33 - Introdução à Álgebra Linear

238 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES

é o autoespaço associado a t2.

Observemos que, nos exemplos acima, tomamos α sendo sempre a base

canônica. Isto não representa nenhum problema, pois o método de cálculo

dos autovalores e autovetores de um operador T , dado pelo Teorema 9.2.1,

independe da base escolhida. O que não é totalmente claro é se o polinômio

característico independe da base escolhida. De fato, o polinômio caracterís-

tico de T independe da escolha da base, pois dadas α e β bases do espaço

vetorial V , temos que P[T ]αα(t) = P[T ]ββ(t) (veja Problema 2.3).

O polinômio característico possui várias propriedades, das quais damos

abaixo a mais básica.

Lema 9.2.2. Seja B uma matriz quadrada de ordem n com entradas po-

linômiais, de graus ≤ 1, numa indeterminada t, tal que em cada linha e em

cada coluna há no máximo um polinômio não constante, então detA é um

polinômio de grau menor ou igual do que n.

Demonstração A prova pode ser feita sem di�culdade por indução sobre

n, utilizando o desenvolvimento de Laplace com relação à primeira linha, por

exemplo. �

Proposição 9.2.3. Dada uma matriz A ∈M(n), o polinômio característico

pA(t) de A é um polinômio mônico de grau n com coe�cientes em R e cujos

coe�cientes de tn−1 e de t0 são − trA e (−1)n detA.Demonstração Escrevamos A = (aij), logo

pA(t) = det

t− a11 −a12 · · · −a1n−a21 t− a22 · · · −a2n...

......

an1 −an2 · · · t− ann

.

Pelo Lema anterior, pA(t) é um polinômio de grau no máximo n. Desenvol-

vendo o determinate segundo os elementos da primeira linha e utilizando o

Page 247: MA33 - Introdução à Álgebra Linear

2. POLINÔMIO CARACTERÍSTICO 239

Lema 9.2.2 (repetidas vezes), temos que

pA(t) = (t− a11) det

t− a22 · · · −a2n...

...

−an2 · · · t− ann

+ polinômio de grau < n− 1.

Repetindo o procedimento, vemos que

pA(t) = (t− a11)(t− a22) · · · (t− ann) + polinômio de grau < n− 1.

Segue-se que pA(t) é um polinômio mônico de grau n em t e que o coe�ciente

de tn−1 é − trA.

Por outro lado, o coe�ciente de t0 em pA(t) = det(t In−A) é precisamente

PA(0) = det(−A) = (−1)n detA.

Sejam dados um polinômio p(t) = artr + ar−1t

r−1 + · · · + a1t + a0, com

coe�cientes reais, e uma matriz quadrada A de ordem n, de�ne-se

p(A) = arAr + ar−1A

r−1 + · · ·+ a1A+ a0 In,

que é uma matriz quadrada de ordem n.

A seguir, apresentamos um dos importantes Teoremas básicos da Álgebra

Linear, o chamado Teorema de Cayley-Hamilton2.

Teorema 9.2.4. (Cayley-Hamilton) Seja A ∈ M(n) e seja PA(t) o po-

linômio característico de A. Então, PA(A) = 0, onde 0 é a matriz nula de

M(n).

2William Rowan Hamilton (Irlanda, 1805 - 1865) deu várias contribuições à Física e à

Matemática. Com apenas 22 anos de idade, foi nomeado Royal Astronomer na Irlanda,

diretor do Observatório de Dunsek e professor de Astronomia. Deu o primeiro exemplo de

uma álgebra não comutativa com a criação dos quatérnios. Os métodos dos quatérnios,

tempos depois, motivaram a introdução da análise vetorial. Hamilton escreveu também

sobre ótica e dinâmica. De fato, Hamilton é atualmente mais conhecido por seus trabalhos

em dinâmica do que por seus trabalhos em matemática.

Page 248: MA33 - Introdução à Álgebra Linear

240 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES

Demonstração Como PA(t) é um polinômio mônico de grau n em t, pode-

mos escrever

PA(t) = tn + bn−1tn−1 + · · ·+ b1t+ b0, (11)

onde b0, . . . , bn−1 são números reais. Seja C(t) a matriz adjunta da matriz

t In−A. Como C(t) é, por de�nição, a transposta da matriz cujas entradas

são os cofatores de t In−A, logo são polinômios em t de grau menor ou igual

que n− 1. Assim, podemos escrever

C(t) = Cn−1tn−1 + · · ·+ C1t+ C0, (12)

onde C0, C1, . . . , Cn−1 são matrizes quadradas de ordem n, que não dependem

de t. Pela Proposição 8.3.1, temos

(t In−A)C(t) = PA(t) In,

já que, por de�nição, PA(t) = det(t In−A). Equivalentemente, por (11) e

(12),

(t In−A)(Cn−1tn−1 + · · ·+ C1t+ C0) = (tn + bn−1tn−1 + · · ·+ b1t+ b0) In .

Da igualdade anterior, obtemos

Cn−1 = In

Cn−2 − ACn−1 = bn−1 In

Cn−3 − ACn−2 = bn−2 In...

C0 − AC1 = b1 In

−AC0 = b0 In .

Multiplicando cada uma das equações acima por An, An−1, . . . , A, In, respec-

Page 249: MA33 - Introdução à Álgebra Linear

2. POLINÔMIO CARACTERÍSTICO 241

tivamente, temos

AnCn−1 = An

An−1Cn−2 − AnCn−1 = bn−1An−1

An−2Cn−3 − An−1Cn−2 = bn−2An−2

...

AC0 − A2C1 = b1A

−AC0 = b0 In .

Somando membro a membro as equações acima, resulta

PA(A) = An + bn−1An−1 + · · ·+ b1A+ b0 In = 0.

Exemplo 5. Consideremos a matriz

A =

[1 3

−1 0

].

O polinômio característico de A é

PA(t) = det(t In−A) = det

[t− 1 −31 t

]= t2 − t+ 3.

Pelo Teorema de Cayley-Hamilton, PA(A) = 0.

Vamos agora veri�car esta igualdade diretamente. De fato,

PA(A) = A2 − A+ 3 I2

=

[1 3

−1 0

]2−

[1 3

−1 0

]+ 3

[1 0

0 1

]

=

[−2 3

−1 −3

]+

[−1 −31 0

]+

[3 0

0 3

]

=

[0 0

0 0

].

Page 250: MA33 - Introdução à Álgebra Linear

242 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES

Uma consequência imediata do Teorema de Cayley-Hamilton é que a po-

tência An, de uma matriz A ∈M(n), pode ser escrita como uma combinação

linear das potências de A com expoentes menores do que n, pois se

PA(t) = tn + bn−1tn−1 + · · ·+ b1t+ b0,

então PA(A) = 0, o que equivale a

An = −bn−1An−1 − · · · − b1A− b0 In .

Exemplo 6. Consideremos novamente a matriz

A =

[1 3

−1 0

]

do Exemplo 5. Vimos que A2 − A+ 3 I2 = 0; ou seja, A2 = A− 3 I2.

Para obtermos A3, façamos

A3 = AA2 = A(A− 3 I2) = A2 − 3A = −2A− 3 I2 .

Para obtermos A4, façamos

A4 = AA2 = A(−2A−3 I2) = −2A2−3A = −2(A−3 I2)−3A = −5A+6 I2 .

Este procedimento mostra que, em geral, se A ∈ M(2), então para todo

m ∈ N \ {0}, a matriz Am se escreve como combinação linear de I2 e A.

Observamos �nalmente que, dada uma matriz A ∈M(n), calcular potên-

cias Ak, k ∈ N, pode ser muito trabalhoso. O Teorema de Cayley-Hamilton

nos dá uma forma de calcular estas potências. Veremos, no �nal da Seção 3

deste capítulo, que o cálculo de Ak �ca bastante simpli�cado se a matriz A

tiver a propriedade de ser diagonalizável.

A leitura do restante desta seção é facultativa, pois não utilizaremos as

informações aí contidas, exceto na Proposição 9.4.4, que também não será

empregada em nenhuma outra parte do texto.

Page 251: MA33 - Introdução à Álgebra Linear

2. POLINÔMIO CARACTERÍSTICO 243

Um outro polinômio que desempenha papel fundamental é o polinômio

mínimo de uma matriz A, ou de um operador T .

Consideremos o conjunto

I(A) = {p(t) ∈ R[t]; p(A) = 0}.

Este conjunto possui um polinômio não identicamente nulo, pois pelo Teo-

rema de Cayley-Hamilton, pA(t) ∈ I(A).De�nimos o polinômio mínimo de A como o polinômio mA(t) mônico de

menor grau em I(A).

É fácil veri�car (veja Problema 2.2) que se A é uma matriz quadrada,

p ∈ R[t] tal que p(A) = 0 e P é uma matriz invertível de mesma or-

dem que A, então p(A) = 0 se, e somente se, p(P−1AP ) = 0. Portanto,

I(A) = I(P−1AP ), mostrando que o conjunto I(T ) está bem de�nido para

um operador T . Deduzimos daí que faz sentido falar do polinômio mínimo

mT (t) de um operador T .

O próximo resultado nos dará algumas informações importantes sobre

polinômios mínimos.

Proposição 9.2.5. Seja T : V → V um operador linear sobre um espaço V

de dimensão �nita. Temos que:

(i) Se p1(t), p2(t) ∈ I(T ), então p1(t) + p2(t) ∈ I(T );

(ii) Se p(t) ∈ I(T ) e q(t) ∈ R[t], então p(t)q(t) ∈ I(T );

(iii) Se p(t) ∈ I(T ), então mT (t) divide p(t).

Demonstração As duas primeiras propriedades são de veri�cação imediata.

Vamos provar (iii). Seja p(t) ∈ I(t). Pelo algoritmo da divisão euclidiana (cf.

[4]), temos que existem polinômios h(t), r(t) ∈ R[t], com r(t) = 0, ou grau

de r(t) menor do que o grau de mT (t) tais que p(T ) = mT (t)h(t) + r(t). Da

igualdade r(t) = p(t) −mT (t)h(t) = 0, tem-se que r(A) = 0 e r(t) ∈ I(T ).Como mT (t) é um polinômio de grau mínimo que se anula em A, precisamos

ter r(t) = 0, o que mostra que mT (t) divide p(t). �

Page 252: MA33 - Introdução à Álgebra Linear

244 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES

Note que o item (iii) prova a unicidade de mT (t). De fato, se mT (t) e

m′T (t) são dois polinômios mínimos, então cada um divide o outro, e como

eles são mônicos, eles são necessariamente iguais. A propriedade (iii) tam-

bém nos diz que o polinômio mínimo de um operador divide seu polinômio

característico.

Problemas

2.1* Determine os autovalores e os autovetores do operador cuja matriz na

base canônica é dada por

A =

[2 −3−1 4

].

2.2* Prove que uma matriz quadrada A é invertível se, e somente se, c = 0

não é raiz do polinômio característico de A.

2.3 Sejam A e P duas matrizes quadradas de mesma ordem, com P invertível.

Mostre que se p(t) ∈ R[t], então p(P−1AP ) = P−1p(A)P .

2.4 Prove que matrizes semelhantes têm os mesmos polinômios característi-

cos.

2.5 Seja A uma matriz quadrada de ordem n semelhante a uma matriz trian-

gular inferior B. Mostre que os autovalores de A são exatamente os elementos

da diagonal principal de B.

3 Diagonalização de Operadores

Dado um operador linear T : V → V , nosso objetivo é obter, se possível,

uma base α de V na qual a matriz [T ]αα seja uma matriz diagonal. O re-

sultado a seguir caracterizará tais bases associadas ao operador que se quer

diagonalizar.

Teorema 9.3.1. Um operador linear T : V → V admite uma base β em

relação à qual a matriz [T ]ββ é diagonal se, e somente se, essa base β for

formada por autovetores de T .

Page 253: MA33 - Introdução à Álgebra Linear

3. DIAGONALIZAÇÃO DE OPERADORES 245

Demonstração Suponhamos que β = {v1, v2, . . . , vn} é uma base de V tal

que [T ]ββ é diagonal, digamos

[T ]ββ =

a1 0 · · · 0

0 a2 · · · 0...

.... . .

...

0 0 · · · an

.Como, para cada 1 ≤ j ≤ n,

T (vj) = 0v1 + · · ·+ 0vj−1 + ajvj + 0vj+1 + · · ·+ 0vn = ajvj,

segue que aj é um autovalor de T e vj é um autovetor de T associado a aj.

Portanto, β é uma base formada de autovetores de T .

Suponhamos agora que β = {u1, u2, . . . , un} é uma base de V formada

por autovetores de T . Existem, então, números reais b1, b2, . . . , bn tais que,

para cada 1 ≤ j ≤ n, T (uj) = bjuj. Observamos que os bj's não são necessa-

riamente todos distintos. Pela de�nição de [T ]ββ, temos

[T ]ββ =

b1 0 · · · 0

0 b2 · · · 0...

......

0 0 · · · bn

,ou seja, [T ]ββ é uma matriz diagonal. �

Na demonstração do Teorema 9.3.1 �ca claro que, se um operador linear

T tem uma representação por uma mariz diagonal [T ]ββ, então as entradas da

diagonal principal de [T ]ββ são dadas pelos autovalores de T . Mais ainda, a

ordem em que os autovalores aparecem na diagonal principal da matriz é a

mesma em que seus respectivos autovetores são dados na base β.

Se T é um operador linear em um espaço V de dimensão n, o Teorema

9.3.1 nos diz que T é diagonalizável se, e somente se, T tem n autovetores

linearmente independentes. Em particular, pelo Corolário 9.1.2, se T tem n

autovalores distintos, então T é diagonalizável.

Page 254: MA33 - Introdução à Álgebra Linear

246 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES

Vejamos a seguir alguns exemplos.

Exemplo 1. O operador linear T do Exemplo 1 da Seção 1 é diagonalizável.

Uma representação diagonal para T é dada por

[T ]αα =

[2 0

0 3

],

onde α = {(1, 2), (1, 1)}. Uma outra representação diagonal para T é dada

por

[T ]ββ =

[3 0

0 2

],

sendo β = {(1, 1), (1, 2)}.

Exemplo 2. O operador linear T do Exemplo 4 da Seção 2 é diagonalizável.

Uma representação diagonal para T é dada por

[T ]αα

1 0 0 0

0 1 0 0

0 0 1 0

0 0 0 −1

,com

α =

{[1 0

0 0

],

[0 1

1 0

],

[0 0

0 1

],

[0 1

−1 0

]}.

Exemplo 3. Consideremos o operador linear T : R3 → R3 dado por

T (x, y, z) = (x + y, y, z). O operador T não é diagonalizável, pois o autoes-

paço associado a seu único autovalor, k = 1, é dado por {(x, 0, z) ; x, z ∈ R}.

Vimos na Seção 1 do Capítulo 6 que toda matriz A ∈ M(m,n) de�ne

uma transformação linear TA : Rn → Rm. Em particular, se A é uma matriz

quadrada de ordem n, então A de�ne um operador linear TA em Rn. Dizemos

que a matriz A é diagonalizável quando TA é diagonalizável. No caso de TAser diagonalizável, pelo Teorema 9.3.1, existe uma base β de Rn formada de

autovetores de TA. Ou seja, existe uma representação diagonal D, a saber

Page 255: MA33 - Introdução à Álgebra Linear

3. DIAGONALIZAÇÃO DE OPERADORES 247

D = [TA]ββ, para o operador TA. Como [TA]

αα = A, onde α denota a base

canônica de Rn, segue, do Teorema 6.4.2, que

D = P−1AP,

com P = [IRn ]βα. Isto motiva a seguinte versão matricial do Teorema 9.3.1,

cuja condição necessária acabamos de demonstrar.

Teorema 9.3.2. Uma matriz A ∈ M(n) é diagonalizável se, e somente se,

existe uma matriz P invertível de ordem n tal que P−1AP é uma matriz

diagonal .

Demonstração Para provarmos a condição su�ciente, tomemos que β =

{v1, v2, . . . , vn}, onde vj é o vetor j-ésima coluna de P . Seja α a base canônica

de Rn. Pelo Teorema 6.3.2, temos

[TA]ββ = [IRn ]

αβ [TA]

αα [IRn ]

βα.

Equivalentemente,

[TA]ββ = P−1AP,

já que [IRn ]βα = P pela maneira como β foi construída. Como P−1AP é uma

matriz diagonal, segue-se que [TA]ββ é uma matriz diagonal. Portanto, TA é

diagonalizável e, então, A também o é. �

No Teorema 9.3.2, a matriz P é chamada de matriz que diagonaliza A.

Vejamos a seguir alguns exemplos.

Exemplo 4. A matriz

A =

1 0 2

0 1 3

0 0 −1

é diagonalizável. De fato, seja α a base canônica de R3. Então

P[TA]αα(t) = PA(t) = det

t− 1 0 −20 t− 1 −30 0 t+ 1

= 0 para t = 1 ou t = −1.

Page 256: MA33 - Introdução à Álgebra Linear

248 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES

O autoespaço associado ao autovalor t = 1 é o conjunto solução do sistema

linear 0 0 −20 0 −30 0 2

xyz

=

000

,ou seja, é o conjunto {(x, y, 0) ; x, y ∈ R}. Já o autoespaço associado ao

autovalor t = −1 é o conjunto solução do sistema linear−2 0 −20 −2 −30 0 0

xyz

=

000

,ou seja, é o conjunto {(−z,−3/2z, z) ; z ∈ R}. Tome β = {(1, 1, 0), (1, 0, 0),(1, 3/2,−1)}. Temos que β é uma base de R3 formada de autovetores de TA.

Assim, TA é diagonalizável e, portanto, A é diagonalizável. A matriz

P =

1 1 1

1 0 3/2

0 0 −1

é uma matriz que diagonaliza A e a matriz

D =

1 0 0

0 1 0

0 0 −1

é uma representação diagonal para TA.

Exemplo 5. Consideremos a matriz

B =

1 −1 2

0 1 3

0 0 −1

.A matriz B não é diagonalizável, pois TB não é diagonalizável. Note que TBe TA têm os mesmos autovalores. Porém, o autoespaço de TB associado a

Page 257: MA33 - Introdução à Álgebra Linear

3. DIAGONALIZAÇÃO DE OPERADORES 249

t = 1 é dado por {(x, 0, 0) ; x ∈ R} e o autoespaço de TB associado a t = −1é dado por {(−7/4z,−3/2z, z) ; z ∈ R}. Assim, não é possível obter uma

base de R3 formada por autovetores de TB.

Terminamos esta seção, observando que o cálculo de potências de matrizes

é uma tarefa de custo computacional muito elevado, pois é necessário calcular

m− 1 produtos de matrizes para calcular Am. Entretanto, se soubermos que

A é uma matriz diagonalizável, o cálculo de Am �ca bastante simpli�cado.

De fato, se A ∈M(n) e se P ∈M(n) é invertível, então é fácil veri�car que

(P−1AP )m = P−1AmP.

Logo, se A é diagonalizável e se P−1AP = D é uma matriz diagonal, temos

que

Dm = P−1AmP,

ou equivalentemente,

Am = PDmP−1,

que é calculável (cf. Problema 2.15, Capítulo 1) com apenas duas multipli-

cações de matrizes.

Exemplo 6. Determinemos a matriz A50, sendo

A =

[1 2

0 −1

].

Veri�quemos que A é diagonalizável e encontremos uma matriz P que

diagonaliza A. Ora,

det(t I−A) = det

[t− 1 −20 t+ 1

]= (t− 1)(t+ 1),

que se anula para t = 1 e para t = −1. Logo, estes são os autovalores de A.

Resolvendo as equações matriciais[0 −20 2

][x

y

]=

[0

0

]

Page 258: MA33 - Introdução à Álgebra Linear

250 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES

e [−2 −20 0

][x

y

]=

[0

0

],

obtemos os autoespaços associados aos autovalores 1 e −1, respectivamente.

Tomemos, então, v1 = (1, 0) um autovetor para t = 1 e v2 = (1,−1) um

autovetor para t = −1. Temos,

D = P−1AP,

com

D =

[1 0

0 −1

]e P =

[1 1

0 −1

].

Como D50 = I2, segue-se que

A50 = P−1D50 P = P−1 I2 P = I2 .

Problemas

3.1* Seja T : R3 → R3 o operador linear dado por

[T ]αα =

1 2 0

1 −1 0

−1 0 2

,onde α = {(1, 1, 1), (0, 1, 0), (0, 0, 1)} é uma base de R3. Veri�que que T é

diagonalizável.

3.2 Seja A ∈M(n). Verdadeiro ou falso? Justi�que a resposta.

(a) Se A é diagonalizável e A é invertível, então A−1 é diagonalizável.

(b) A e At têm os mesmos autovalores.

(c) A e At têm os mesmos autovetores.

(d) Se A é diagonalizável, então existe uma única matriz P tal que P−1AP

é uma matriz diagonal.

Page 259: MA33 - Introdução à Álgebra Linear

4. O TEOREMA ESPECTRAL PARA OPERADORES SIMÉTRICOS251

3.3 Determine nos itens abaixo se A é diagonalizável. Em caso a�rmativo,

encontre uma matriz P que diagonaliza A e determine P−1AP .

(a) A =

4 0 0

1 4 0

0 1 4

. (b) A =

[2 4

3 1

]. (c) A =

1 −2 −20 1 0

0 2 3

.3.4 Para quais valores de c as matrizes abaixo são diagonalizáveis?

(a) A =

[1 1

0 c

].

(b) A =

[1 c

0 1

].

3.5 Seja A =

1 −2 8

0 −1 0

0 0 −1

. Calcule:

(a) A100; (b) A1321; (c) A−100.

3.6* Seja T : R2 → R2 o operador linear dado por T (x, y) = (2x− 2y,−x+3y). Determine uma base de R2 em relação à qual a matriz do operador T é

diagonal.

3.7 Seja T : V → V um operador simétrico. Sejam c1 e c2 autovalores dis-

tintos de T . Se v1 e v2 são autovetores associados a c1 e c2 respectivamente,

prove que v1 e v2 são ortogonais.

4 O Teorema Espectral para Operadores Simé-

tricos

Vimos na seção anterior que se T : V → V é um operador diagonalizável,

então existe uma base de V formada por autovetores de T .

Nesta seção, veremos que se V é um espaço com produto interno e se

T : V → V é um operador simétrico, então existe uma base ortonormal de

V formada por autovetores de T . Em particular, todo operador simétrico é

Page 260: MA33 - Introdução à Álgebra Linear

252 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES

diagonalizável. Este resultado é conhecido como Teorema Espectral e é um

dos resultados mais importantes da Álgebra Linear.

Antes de prosseguir, faremos algumas observações importantes sobre a

possibilidade de estendermos a maioria das noções e resultados estabelecidos

sobre o corpo R ao corpo C. Em particular, todos os resultados que foram

provados até o momento que envolvem sistemas lineares e determinantes são

válidos sobre um corpo arbitrário K. Utilizamos K = R, apenas para que o

leitor trabalhasse em um contexto concreto que lhe é familiar. Neste ponto

precisaremos considerar K = C também. Do mesmo modo que de�nimos

transformações lineares entre espaços vetoriais sobre o corpo R, poderíamos

tê-lo feito sobre um corpo qualquer K. Neste contexto mais geral, faz todo

o sentido de�ninir autovalores e autovetores, para os quais podemos utilizar

um análogo do Teorema 9.2.1. Continua valendo também neste contexto

o Teorema de Cayley-Hamilton. Dado um operador linear T : Rn → Rn,

podemos estendê-lo a um operador TC : Cn → Cn do seguinte modo: se

z = x + iy ∈ Cn, onde x, y ∈ Rn, de�ne-se TC(z) = T (x) + iT (y). Os

polinômios característicos de T e de TC coincidem, mas TC pode possuir mais

autovalores e autovetores do que T .

Proposição 9.4.1. Seja V um espaço vetorial de dimensão �nita sobre R.Se T : V → V é um operador simétrico e α uma base de V , então, todas as

raízes do polinômio característico P[T ]αα em C são números reais .

Demonstração Seja A = [T ]αα. O Teorema Fundamental da Álgebra (cf.

[4]) garante que o polinômio característico PA tem pelo menos uma raiz

complexa; digamos λ. Logo, o sistema (t In−A)Z = 0 possui uma solução

não trivial Z =[z1 . . . zn

]t, com coe�cientes complexos.

Sendo A uma matriz simétrica real, temos que (veja Problema 4.1)

(AZ)tZ = Z tAZ,

e como AZ = λZ, temos, da igualdade acima, que

λ ZtZ = (λZ)tZ = (AZ)tZ = ZtAZ = Z tλZ = λZ tZ.

Page 261: MA33 - Introdução à Álgebra Linear

4. O TEOREMA ESPECTRAL PARA OPERADORES SIMÉTRICOS253

Como

Z tZ = z1 z1 + · · ·+ zn zn = |z1|2 + · · ·+ |zn|2 6= 0.

segue que λ = λ, logo λ ∈ R.Falta ainda mostrar que associado a λ existe um autovetor em Rn. Escre-

vamos Z = X+iY , onde X e Y têm entradas reais, com X 6= 0 ou Y 6= 0 (re-

corde que Z 6= 0). Da equação AZ = λZ, temos que AX+ iAY = λX+ iλY ,

o que implica que AX = λX e AY = λY . Logo, temos que X ou Y é um

autovetor associado a λ com entradas reais. �

Teorema 9.4.2. (Teorema Espectral) Seja V um espaço vetorial de

dimensão �nita sobre R. Se T : V → V é um operador simétrico, então

existe uma base ortonormal β de V tal que [T ]ββ é diagonal .

Demonstração Faremos a prova por indução sobre a dimensão de V . Deno-

taremos a matriz [T ]αα por A. Se dimV = 1, o resultado é óbvio. Suponhamos

que n ≥ 1 e que o resultado é válido para espaços de dimensão n. Seja V um

espaço vetorial tal que dimV = n + 1. Seja α uma base de V e seja c uma

raiz complexa do polinômio PA. Pela Proposição 9.4.1, c ∈ R. Portanto,

c é um autovalor de T . Seja v um autovetor unitário de T associado a c.

Consideremos o subespaço

W = {w ∈ V ; 〈w, v〉 = 0}.

Note que W = G(v)⊥. A�rmamos que T (W ) ⊂ W . De fato, seja w ∈ W .

Como T é um operador simétrico, temos que

〈T (w), v〉 = 〈w, T (v)〉 = 〈w, cv〉 = c〈w, v〉 = c 0 = 0,

donde T (w) ∈ W . Assim, podemos considerar o operador restrição

S = T |W ∈ L(W,W ),

que é também um operador simétrico. Além disso, como dimG(u) = 1, se-

gue do Teorema 7.3.6 que dimW = n. Assim, podemos aplicar a hipótese

Page 262: MA33 - Introdução à Álgebra Linear

254 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES

de indução ao operador S para garantir a existência de uma base ortonormal

{v1, v2, . . . , vn} de W formada por autovetores de S (logo de T ). Conse-

quentemente, β = {v, v1, . . . , vn} é uma base ortonormal de V formada por

autovetores de T . Daí, [T ]ββ é diagonal. �

O próximo resultado é a versão matricial do Teorema 9.4.2.

Teorema 9.4.3. (Teorema Espectral, versão matricial) Se A ∈MR(n)

é simétrica, então existe uma matriz ortogonal P ∈MR(n) tal que P−1AP (=

P tAP ) é diagonal.

Demonstração Seja A ∈ MR(n) uma matriz simétrica. Então o operador

TA ∈ L(Rn,Rn) também é simétrico. Pelo Teorema 9.4.2, existe uma base

ortonormal β de Rn tal que [TA]ββ = D é diagonal. Se α é a base canônica de

Rn, então

D = [TA]ββ = [IRn ]

αβ [TA]

αα [IRn ]

βα = P−1AP,

sendo P = [IRn ]βα. Como α e β são bases ortonormais, segue do Teorema

7.4.7 que P é uma matriz ortogonal, ou seja, P−1 = P t. �

Quando existe uma matriz ortogonal P ∈ MR(n) tal que P−1AP é dia-

gonal, dizemos que A é ortogonalmente diagonalizável e que P diagonaliza A

ortogonalmente.

A seguir daremos uma propriedade que relaciona as raízes do polinômio

mínimo e do polinômio característico de uma matriz (ou de um operador).

Proposição 9.4.4 Se T é um operador sobre um espaço vetorial de dimensão

�nita, então as raízes do polinômio característico pT (t) e as do polinômio

mínimo mT (t) são as mesmas (podendo ter multiplicidades distintas).

Demonstração É óbvio que as raízes do polinômio mínimo são raízes do

polinômio característico, pois o polinômio mínimo divide o polinômio carac-

terístico (cf. Proposição 9.2.5).

Reciprocamente, vamos provar que toda raiz de pT (t) em C é raiz de

qualquer polinômio p(t) tal que p(T ) = 0. De fato, seja t0 uma raiz de pT (t),

logo existe v ∈ Cn \ {0} tal que Tv = t0v. Mas,

0 = p(T )v = p(t0)v.

Page 263: MA33 - Introdução à Álgebra Linear

5. RECONHECIMENTO DE CÔNICAS 255

Como v 6= 0, segue que p(t0) = 0. �

Problemas

4.1 Seja A = [aij] ∈MC(m,n). De�ne-se A = [aij]. Mostre que

(a) λA = λ A, para todo λ ∈ C.

(b) AB = A B, para todo B ∈MC(n, p).

4.2 Prove a recíproca do Teorema Espectral. Mais precisamente, prove que

se V é um espaço sobre R com produto interno e se β é uma base ortonormal

de V formada por autovetores do operador T : V → V , então o operador T

é simétrico.

4.3 Prove a recíproca da versão matricial do Teorema Espectral. Mais pre-

cisamente, prove que se A ∈ MR(n) é uma matriz ortogonalmente diagona-

lizável, então a matriz A é simétrica.

5 Reconhecimento de Cônicas

Nesta seção mostraremos como por meio do teorema Espectral é possível

fazer o reconhecimento de cônicas. Como nosso objetivo aqui não é o de

introduzir cônicas, indicamos o livro [8] como referência para o leitor.

Consideremos a equação geral do segundo grau nas duas variáveis x e y:

ax2 + bxy + cy2 + dx+ ey + f = 0, (1)

onde a, b, c, d, e e f são números reais dados. É possível mostrar que a equa-

ção acima representa uma cônica ou uma reta ou duas retas ou um ponto ou

nenhum lugar geométrico em R2. Como exemplo, vejamos que lugar geomé-

trico em R2 cada uma das equações abaixo representa.

1. x2 + y2 + 1 = 0;

2. 2x2 + 4y2 = 0;

3. x2 − 9 = 0;

Page 264: MA33 - Introdução à Álgebra Linear

256 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES

4. 4x2 + 9y2 − 8x− 36y + 4 = 0;

5. y2 + 6y2 − 8x+ 1 = 0.

1. Esta equação representa nenhum lugar geométrico em R2, pois

{(x, y) ∈ R2 ; x2 + y2 + 1 = 0} = {(x, y) ∈ R2 : x2 + y2 = −1} = ∅;

2. Esta equação representa a origem do plano cartesiano, pois

2x2 + 4y2 = 0

equivale à equação x2 = −2y2, que é veri�cada somente para x = y = 0;

3. Esta equação representa duas retas em R2. Mais precisamente, as retas

x = 3 e x = −3;

4. Esta equação representa uma elipse. De fato, seja (x, y) ∈ R2 tal que

4x2+9y2− 8x− 36y+4 = 0. Note que esta equação é equivalente à equação

4(x2 − 2x) + 9(y2 − 4y) = −4.

Completando os quadrados da equação anterior, obtemos

4(x− 1)2 + 9(y − 2)2 = 36,

ou seja,(x− 1)2

9+

(y − 2)2

4= 1,

que é a equação reduzida de uma elipse de centro (1,2) e eixos maior e menor

medindo 6 e 4, respectivamente (Figura 21).Figura 21

5. Esta equação representa uma parábola. De fato, seja (x, y) ∈ R2 tal que

y2 + 6y − 8x+ 1 = 0. Note que esta equação é equivalente à equação

(y2 + 6y) = 8x− 1.

Page 265: MA33 - Introdução à Álgebra Linear

5. RECONHECIMENTO DE CÔNICAS 257

Completando o quadrado da equação acima, obtemos

(y + 3)2 = 8(x+ 1),

que é a equação reduzida de uma parábola de vértice (−1,−3) e parâmetro

2 (Figura 22).

Page 266: MA33 - Introdução à Álgebra Linear

258 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES

Figura 22

Observemos que em todos os exemplos anteriores o termo xy da equação

(2), chamado termo misto da equação, não aparece. A técnica usualmente

utilizada nesse caso é a técnica de completar quadrados. Porém, em equações

em que o termo misto aparece, precisamos de uma álgebra mais avançada

para reduzirmos a equação dada. Por exemplo, como determinar o lugar

geométrico em R2 representado pela equação

2x2 + 2xy + 2y2 + 7√2x+ 5

√2y + 10 = 0? (2)

Para respondermos esta pergunta, vamos usar o Teorema Espectral. Pri-

meiramente, note que a equação (2) equivale a equação matricial

[x y]

[2 1

1 2

][x

y

]+ [7√2 5√2]

[x

y

]+ [10] = [0]. (3)

Chame A =

[2 1

1 2

]. Como A é uma matriz simétrica, pelo Teorema

Espectral, A é ortogonalmente diagonalizável. De fato, os autovalores de

A são t1 = 3 e t2 = 1. O vetor unitário v1 =(

1√2, 1√

2

)e o vetor uni-

tário v2 =(− 1√

2, 1√

2

)são autovetores de t1 e t2, respectivamente. Assim,

β = {v1, v2} é uma base ortonormal de R2 formada por autovetores de TA.

Page 267: MA33 - Introdução à Álgebra Linear

5. RECONHECIMENTO DE CÔNICAS 259

Seja P = [IR2 ]βα, onde α é a base canônica de R2. Chame D = P−1AP .

Temos

P =

[1√2− 1√

21√2

1√2

]e D =

[3 0

0 1

].

Como A = P DP t, já que P−1 = P t, segue de (3) que

[x y]P

[3 0

0 1

]· P t

[x

y

]+ [7√2 5√2]

[x

y

]+ [10] = [0]. (4)

Observemos que o produto matricial P t

[x

y

]é a matriz das coordenadas de

um vetor v = (x, y) ∈ R2 em relação à base β, pois

P t

[x

y

]= [IR2 ]αβ [v]α.

Chamemos [v]β de

[x′

y′

]. Substituindo em (4), obtemos

[x′ y′]

[3 0

0 1

][x′

y′

]+ [7√2 5√2]

[1√2− 1√

21√2

1√2

][x′

y′

]+ [10] = [0]

ou seja,

3x′2 + y

′2 + 12x′ − 2y′ + 10 = 0. (5)

Com a mudança da base canônica α para a base β, reduzimos a equação (2)

à equação (5), que não apresenta o termo misto x′y′. Agora, vamos reduzir

(5) completando quadrados. Ora,

3x′2 + y

′2 + 12x′ − 2y′ + 10 = 0

equivale à equação

3(x′ + 2)2 + (y′ − 1)2 = 3,

ou seja,

(x′ + 2)2 +(y′ − 1)2

3= 1.

Page 268: MA33 - Introdução à Álgebra Linear

260 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES

Portanto, a equação (2) representa uma elipse. Para esboçarmos o grá�co

dessa elipse, precisamos considerar as novas coordenadas x′ e y′. Assim,

nesse sistema de coordenadas, a elipse tem centro (−2, 1), semi-eixo menor

medindo 1 e semi-eixo maior medindo√3, sendo este semi-eixo paralelo ao

eixo y′ (Figura 23).

Figura 23

Generalizaremos este procedimento a seguir.

Seja dada a equação

ax2 + bxy + cy2 + dx+ ey + f = 0.

Esta é equivalente à equação matricial

[x y]

[a b/2

b/2 c

][x

y

]+ [d e]

[x

y

]+ [f ] = [0]. (6)

Seja A =

[a b/2

b/2 c

]. Como A é uma matriz simétrica, pelo Teorema Es-

pectral, existe uma base ortonormal β de R2 formada de autovetores de TA.

Assim, se t1 e t2 são autovalores de TA (pode ser que t1 = t2), existem auto-

vetores v1 e v2 associados a t1 e t2, respectivamente, tais que β = {v1, v2} é

Page 269: MA33 - Introdução à Álgebra Linear

5. RECONHECIMENTO DE CÔNICAS 261

uma base ortonormal de R2. A matriz P = [IR2 ]βα, onde α é a base canônica

de R2, diagonaliza A ortogonalmente, já que

D = P−1AP

é a matriz diagonal

[k1 0

0 k2

]com P−1 = P t. Portanto,

A = P DP t. (7)

Substituindo (7) em (6), obtemos a equação matricial

([x y]P )D

(P t

[x

y

])+ [d e]

[x

y

]+ [f ] = [0]. (8)

O produto matricial P t

[x

y

], que aparece na equação (8), é a matriz das

coordenadas de um vetor v = (x, y) ∈ R2 em relação à base β, pois

P t

[x

y

]= [IR2 ]αβ [v]α.

Chamemos [v]β de

[x′

y′

]. Substituindo em (8), obtemos

[x′ y′]D

[x′

y′

]+ [d e]P

[x′

y′

]+ [f ] = [0] (9)

uma vez que [x′

y′

]= P t

[x

y

]implica que

[x′ y′] =

(P t

[x

y

])t

=

[x

y

]t(P t)t = [x y]P

e

P

[x′

y′

]= P

(P t

[x

y

])= (P P−1)

[x

y

]=

[x

y

].

Page 270: MA33 - Introdução à Álgebra Linear

262 CAPÍTULO 9. DIAGONALIZAÇÃO DE OPERADORES

Se v1 = (x1, y1) e vv = (x2, y2), obtemos de (9) a equação

[x′ y′]

[k1 0

0 k2

][x′

y′

]+ [d e]

[x1 x2

y1 y2

][x′

y′

]+ [f ] = [0],

ou seja, obtemos a equação

k1x′2 + k2y

′2 + (dx1 + ey1)x′ + (dx2 + ey2)y

′ + f = 0. (10)

Como a equação (10) não apresenta o termo misto x′y′, podemos com-

pletar os quadrados, e assim determinar o lugar geométrico em R2 dado por

ax2 + bxy + cy2 + dx+ ey + f = 0.

Problemas

5.1* Que lugar geométrico em R2 as equações abaixo representam?

(a) x2 − 4x− 2y + 4 = 0.

(b) 4x2 − 3y2 + 24xy − 156 = 0.

5.2 Que lugar geométrico de R2 as equações abaixo representam? Esboce o

grá�co, quando possível.

(a) x2 + y2 − 2x− 2y + 4 = 0.

(b) 16x2 + 9y2 − 96x+ 72y + 144 = 0.

(c) 2x2 + 2√2xy + y2 − 12 = 0.

(d) x2 + 2xy + y2 = 0.

(e) 7x2 − 8xy + y2 − 17√5x+ 11

√5y + 41 = 0.

(f) x2 + xy + y2 + 5√2x+ 4

√2y + 1 = 0.

(g) 16x2 − 24xy + 9y2 − 15x− 20y + 50 = 0.

(h) 5x2 + 4xy + 2y2 − 12 = 0.

(i) 2x2 + 2√6xy + y2 − 16 = 0.

Page 271: MA33 - Introdução à Álgebra Linear

Bibliogra�a

[1] H. P. Bueno, Álgebra Linear, um segundo curso , Coleção Textos Univer-

sitários, SBM, 2006.

[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,

2001.

[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-

mática e Aplicações, IMPA, 2008.

[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção

PROFMAT, SBM, 2012.

[5] V. J. Katz, A History of Mathematics - an Introduction , HarperCollins

College Publishers, 1993.

[6] S. Lang, Introduction to Linear Algebra , 2nd edition, Undergraduate Texts

in Mathematics, Springer, 1986.

[7] E.L. Lima, Álgebra Linear , 3a edição, Coleção Matemática Universitária,

IMPA, 1998.

[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2a edição, Coleção

Matemática Universitária, IMPA, 2010.

300

Page 272: MA33 - Introdução à Álgebra Linear

10

263

Livro: Introdução à Álgebra LinearAutores: Abramo Hefez

Cecília de Souza Fernandez

Capítulo 10: Soluções e Respostas

Page 273: MA33 - Introdução à Álgebra Linear

264 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS

Capítulo 1

2.1* Temos

2A =

[2 −4 6

8 2 0

], 3B =

[−3 6 0

3 −6 0

]e 2A− 3B =

[5 −10 6

5 8 0

].

2.2 x = 10, y = 3 e z = 1.

2.3

(a)

[−1 5 −42 1 −2

]. (b)

−2−2−6

. (c)

[−3−1

].

(d)

−1 1

−1 1

−3 3

. (e)

[−5−2

]. (f)

[3 −4 1

].

2.4* (a) Não. Porque para se determinar c63, a matriz A deveria ter, no

mínimo, 6 linhas.

(b) Por de�nição,

c36 =5∑

k=1

a3k · bk6.

Assim,

c36 =5∑

k=1

(3− k)6 =5∑

k=1

(18− 6k) = 0.

2.6* Se X é uma matriz que comuta com A, então X é uma matriz quadrada

de ordem 2. Assim, vamos determinar as matrizes

X =

[a b

c d

]tais que AX = XA. Ora,[

a b

c d

][1 0

0 3

]=

[1 0

0 3

[a b

c d

],

Page 274: MA33 - Introdução à Álgebra Linear

265

se, e somente se, [a 3b

c 3d

]=

[a b

3c 3d

].

Portanto,

X =

[a b

c d

]comuta com A se, e somente se, b = c = 0 e a e d são números reais quaisquer.

2.7 (b) M =

[x y

0 x

], com x e y números reais quaisquer.

2.10* (a)

At =

1 0

2 −13 4

.(b) Seja A = (aij)n×n uma matriz triangular superior e seja At = [bij]n×n a

transposta de A. Por de�nição,

bij = aji,

para todo 1 ≤ i, j ≤ n. Mas, se j > i, segue que aji = 0, já que A é uma

matriz triangular superior. Portanto, bij = 0 sempre que i < j, ou seja, At é

uma matriz triangular inferior.

(c) Sejam A = [aij]m×n e B = [bij]m×n. Seja k ∈ R. Então,

(A+B)t = [aji + bji]n×m = [aji]n×m + [bji]n×m = At +Bt

e

(kA)t = [kaji]n×m = k[aji]n×m = kAt.

(d) Sejam A = [aij]m×n e B = [bij]n×p. Então, AB = [cij]m×p, com

cij =n∑k=1

aik · bkj,

Page 275: MA33 - Introdução à Álgebra Linear

266 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS

para todo 1 ≤ i ≤ m e 1 ≤ j ≤ p, e BtAt = [dij]p×m, com

dij =n∑k=1

bki · ajk,

para todo 1 ≤ i ≤ p e 1 ≤ j ≤ m. Como (AB)t = [eij]p×m onde, para todo

1 ≤ i ≤ p e 1 ≤ j ≤ m,

eij = cji,

segue que

eij =n∑k=1

ajk · bki =n∑k=1

bki · ajk = dij,

para todo 1 ≤ i ≤ p e 1 ≤ j ≤ m. Portanto, (AB)t = BtAt.

(e) Seja A = [aij]m×n. Então At = [aji]n×m, portanto, (At)t = [aij]n×m = A.

2.11* (a) Pelo Problema 2.10, itens (c) e (e), temos (B+Bt)t = Bt+(Bt)t =

Bt + B = B + Bt, onde na última igualdade usamos o fato que a adição de

matrizes é comutativa. Agora pelo itens (d) e (e) do problema 2.10, temos

(B ·Bt)t = (Bt)t ·Bt = B ·Bt.

(b) Pelo Problema 2.10, item (c), segue que (B − Bt)t = Bt + (−Bt)t =

Bt −B = −(B −Bt).

(c) Segue imediatamente de (a) e (b).

(d) Seja B uma matriz quadrada que se escreve com B = B1 + B2, onde

B1 é simétrica e B2 é antissimétrica. Então, Bt1 = B1 e Bt

2 = −B2. Como

Bt = Bt1 +Bt

2, segue que Bt = B1 −B2. Assim,

B = B1 +B2 e Bt = B1 −B2

implicam que

B1 =B +Bt

2e B2 =

B −Bt

2.

2.16 (a) X = C−1B. (b) X = (A−1)t. (c) X = B−1A−1C.

Page 276: MA33 - Introdução à Álgebra Linear

267

Capítulo 2

1.1* (a)[2 1

−1 3

]−→

e1 : L1↔L2

[−1 3

2 1

]−→

e2 : L1→−L1

[1 −32 1

]−→

e3 : L2→L2−2L1[1 −30 7

]−→

e4 : L2→ 17L2

[1 −30 1

]−→

e5 : L1→L1+3L2

[1 0

0 1

].

(b) Sim. Porque a forma escalonada de A é a matriz identidade de ordem 2.

(c) Temos

A−1 = E5 · E4 · E3 · E2 · E1,

onde E1 = e1(I), E2 = e2(I), E3 = e3(I), E4 = e4(I) e E5 = e5(I). Assim,

A−1 =

[1 3

0 1

][1 0

0 1/7

][1 0

−2 1

][−1 0

0 1

][0 1

1 0

].

Computando o produto acima, obtemos

A−1 =

[3/7 −1/71/7 2/7

].

1.2 (a) A−1 =

[3 −7−5 12

]. (b) B−1 =

−1 −1 0

0 −1 −11 −1 −3

.

(c) C−1 =

1 −1 0 2

−1 2 2 0

0 −1 0 1

1 0 1 2

.

1.4 (a)

1 0 −7/2 5/2

0 1 3 −20 0 0 0

. (b)

1 2 0 0 4/3

0 0 1 0 0

0 0 0 1 −1/6

.

Page 277: MA33 - Introdução à Álgebra Linear

268 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS

(c)

1 0 4/11 13/11

0 1 −5/11 3/11

0 0 0 0

0 0 0 0

.1.8* (a) Sejam A e B matrizes quadradas de mesma ordem n tais que AB =

I. Suponhamos que A não é invertível. Então, pelo Corolário 2.1.7, A não

tem posto n, logo A é equivalente por linhas a uma matriz com uma linha

nula, ou seja, existem matrizes elementares E1, . . . , Es tais que Es . . . E2E1A

tem uma linha nula. Portanto, temos Es · · ·E2E1AB = C, onde C também

é uma matriz com uma linha nula (cf. Problema 2.13(a), Capítulo 1). Dessa

forma, AB = (E−11 . . . E−11 )C e, portanto, também AB é uma matriz com

uma linha nula. Mas isso contradiz o fato de que AB = I. Portanto, A é

invertível. Consequentemente,

A−1 = A−1I = A−1(AB) = (A−1A)B = IB = B.

Assim AB = I se, e somente se, BA = I, pois se AB = I, pelo o que vimos

acima B = A−1 e, então, BA = A−1A = I. E reciprocamente, se BA = I,

pelo o que vimos acima A = B−1 e, então, AB = B−1B = I.

(b) Se A eB são invertíveis, temos da Proposição 1.2.4(b) que AB é invertível.

Reciprocamente, se AB é invertível, então existe C tal (AB)C = C(AB) = I.

Logo, como A(BC) = (AB)C = I, pelo item (a), temos que A é invertível.

Por outro lado, como (CA)B = C(AB) = I, pelo item (a), tem-se que B é

invertível.

2.1* Como os termos independentes do sistema são todos iguais a zero, estes

não se alteram por transformações elementares. Por isso, para resolvermos

um sistema linear homogêneo pelo método de escalonamento, basta conside-

rarmos a matriz dos coe�cientes. Ora,0 1 3 −22 1 −4 3

2 3 2 −1−4 −3 5 −4

−→L1↔L3

2 3 2 −12 1 −4 3

0 1 3 −2−4 −3 5 −4

−→

L2 → L2 − L1

L4 → L4 + 2L1

Page 278: MA33 - Introdução à Álgebra Linear

269

2 3 2 −10 −2 −6 4

0 1 3 −20 3 9 −6

−→L1 → L1 − L4

2 0 −7 5

0 −2 −6 4

0 1 3 −20 3 9 −6

−→

L1 → 1/2L2

L2 → L2 + 2L3

L4 → L4 − 3L31 0 −7/2 5/2

0 0 0 0

0 1 3 −20 0 0 0

−→L2 ↔ L3

1 0 −7/2 5/2

0 1 3 −20 0 0 0

0 0 0 0

,donde concluímos que x = 7/2z− 5/2t e que y = −3z + 2t. Fazendo z = a e

t = b, onde a e b ∈ R, obtemos que o conjunto solução do sistema dado é

S = {(72a− 5

2b, −3a+ 2b, a, b) ; a, b ∈ R}.

2.2* Note que1 2 −3 m

2 6 −11 n

1 −2 7 p

−→L2 → L2 − 2L1

L3 → L3 − L1

1 2 −3 m

0 2 −5 n− 2m

0 −4 10 p−m

−→

L3 → L3 + 2L2

1 2 −3 m

0 2 −5 n− 2m

0 0 0 p+ 2n− 5m

,o que implica que o sistema dado é possível se, e somente se, p+2n−5m = 0.

Assim, por exemplo, para m = 1, n = 2 e p = 1 o sistema tem solução. Note

que se p + 2n − 5m = 0 o sistema terá, de fato, mais de uma solução. Em

outras palavras, o sistema não pode ter solução única.

2.3

X =

[1 0 −13 2 1

].

2.4 101

.

Page 279: MA33 - Introdução à Álgebra Linear

270 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS

2.5 (a) Sejam S1 e S2 os conjuntos soluções de AX = B1 e AX = B2,

respectivamente. Então

S1 = {(1/2 + 7/8t, 1/2 + 1/4t, 1/2− 11/8t) t ∈ R}

e

S2 = {(1/4 + 7/8t, 1/4t, 3/4− 11/8t) ; t ∈ R}.

(b)

{(5/4 + 7/8t, 3/2 + 1/4t, 3/4− 11/8t) ; t ∈ R}.

2.8 a = 2, b = −1, c = 1.

2.9

(a) (i) k 6= 3; {(3k + 6,−2k − 4,−1)}.

(ii) Não existe k ∈ R.

(iii) k = 3; {(5− 10z,−3 + 7z, z) z ∈ R}.

(b) (i) k 6= 1 e k 6= −2; {(1/(k + 2), 1/(k + 2), 1/(k + 2) )}.

(ii) k = −2.

(iii) k = 1; {(1− y − z, y, z) y, z ∈ R}.

(c) (i) k 6= 1 e k 6= −1; {(0, 0, 0)}.

(ii) Não existe k ∈ R.

(iii) k = ±1; {(−z, 0, z) : z ∈ R} para k = 1 e {(z, 0, z) : z ∈ R}para k = −1.

2.10 −5a+ 2b+ c = 0.

2.11 (a) a = −3. (b) a = 2. (c) a 6= −3 e a 6= 2.

Page 280: MA33 - Introdução à Álgebra Linear

271

Capítulo 3

1.1* Seja W um subconjunto não vazio de um espaço vetorial V . Queremos

mostrar que W é um subespaço vetorial se, e somente se, au+ bv ∈ W para

quaisquer a, b ∈ R e para quaisquer u, v ∈ W .

(⇒) Como W é um espaço vetorial, temos au, bv ∈ W . Logo a soma au+ bv

é um elemento de W .

(⇐) Temos que tanto a adição como a multiplicação por escalar de�nidas

em V quando restritas a W são fechadas, ou seja, se u, v ∈ W e a ∈ Rentão u + v = 1u + 1v ∈ W e au = au + 0v ∈ W . Como a adição e a

multiplicação por escalar satisfazem as condições (ii), (iii), (vii), (viii), (ix)

e (x) para quaisquer a, b ∈ R e para quaisquer u, v ∈ V , elas continuam

satisfazendo estas propriedades para quaisquer a, b ∈ R e para quaisquer

u, v ∈ W . Resta só veri�car as condições (iv) e (v). Seja w ∈ W . Então

temos o = 0w + 0w ∈ W e −w = (−1)w + 0w ∈ W .

1.2 (a) É. (b) Não é. Note que (0, 0) /∈ W .

(c) Não é. Temos (1, 1) ∈ W , mas 2(1, 1) /∈ W . (d) É.

1.3 (a) É. (b) Não é. Note que (1, 0, 0) ∈ W , mas −1(1, 0, 0) /∈ W .

(c), (d), (e) É.

1.4 (a), (b), (c) É. (d) Não é. Temos I3 ∈ W , mas 2I3 /∈ W .

(e) Não é. A matriz nula não pertence a W .

1.5 (a) Não é. Temos p(x) = 1 + x+ x2 ∈ W , mas 12p(x) /∈ W .

(b), (c) É. (d) Não é. Temos p(x) = x2 ∈ W , mas −1p(x) /∈ W .

1.6 (a) V ∩W = W e V +W = V .

(b) V ∩W = {[aij]2×2 ; a11 = a12 = a21 = a22};V +W = {[aij]2×2 ; a11 = −a12 + a21 + a22}.

(c) V ∩W = {(0, 0, 0)} e V +W = R3.

(d) V ∩W = {(0, 0, 0, 0)} e V +W = R4.

(e) V ∩W = {(0, 0, 0)} e V +W = {(x, x, y) ; x, y ∈ R}.

As somas dadas em (c) e (d) são somas diretas.

Page 281: MA33 - Introdução à Álgebra Linear

272 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS

1.11* Queremos determinar a, b, c ∈ R de modo que o vetor w = (a, b, c)

seja combinação linear de u = (2,−6, 4) e v = (2,−1, 1). Para w ser uma

combinação linear de u e v devem existir dois números reais x e y tais que

(a, b, c) = xu+ yv = (2x+ 2y,−6x− y, 4x+ y).

Equivalentemente, (x, y) deve ser uma solução do sistema linear2x+ 2y = a

−6x− y = b

4x+ y = c .

Somando as três equações, obtemos 2y = a+b+c e somando as duas últimas,

temos b+ c = −2x. Assim as coordenadas a, b, c devem satisfazer a equação

a = 3b+ 5c.

1.12* (a) Dado α = {(−1, 3, 1), (1,−2, 4)}, o espaço gerado por α, G(α),

é por de�nição o conjunto de todas as combinações lineares de (−1, 3, 1) e(1,−2, 4). Assim

G(α) = {a(−1, 3, 1) + b(1,−2, 4) ; a, b ∈ R}= {(−a+ b, 3a− 2b, a+ 4b) ; a, b ∈ R}.

Geometricamente, G(α) é um plano que passa pela origem. Se (x, y, z) ∈ R3

é um elemento de G(α), então

x = −a+ b,

y = 3a− 2b,

z = a+ 4b,

(1)

onde a, b ∈ R. As equações em (1) são as equações paramétricas de G(α).

(b) O vetor (5, k, 11) ∈ G(α), se

5 = −a+ b

k = 3a− 2b

11 = a+ 4b,

Page 282: MA33 - Introdução à Álgebra Linear

273

para certos a e b em R. Resolvendo o sistema−a+ b = 5

a+ 4b = 11,

obtemos a = −a5e b = 16

5. Portanto, k = 3a− 2b = −59

5.

1.13 (a) {(2, 1, 0), (−3, 0, 1)}. (b) {(1, 1, 0,−1), (0, 0, 1, 0)}.

(c) {1 + x2, x− 12x2}. (d)

{[1 0

−1 0

],

[0 0

1 1

]}.

1.15 (a), (c) e (d).

1.16 (a) −1p1(x)− 2p2(x) + 2p3(x).

(b) 3p1(x) + 0p2(x)− 2p3(x).

(c) 2p1(x)− 1p2(x) + 0p3(x).

2.1* Sejam f(x) = x3 + 4x2 − 2x + 3, g(x) = x3 + 6x2 − x + 4 e h(x) =

2x3 + 8x2 − 8x + 7 e sejam a, b, c ∈ R tais que af(x) + bg(x) + ch(x) = 0.

Temos a+ b+ 2c = 0

4a+ 6b+ 8c = 0

2a+ b+ 8c = 0

3a+ 4b+ 7c = 0 .

Resolvendo o sitema, obtemos a = b = c = 0, Assim, os três polinômios são

linearmente independentes.

2.2 (a) e (b) independentes, (c) dependente.

2.3 (a), (b) e (c) independentes.

2.4 a = −1 ou a = 2.

3.1* Seja V um espaço vetorial de dimensão n. Queremos mostrar que qual-

quer conjunto linearmente independente com n vetores forma uma base de

Page 283: MA33 - Introdução à Álgebra Linear

274 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS

V . Sejam v1, v2, . . . , vn vetores linearmente independentes. Se estes vetores

não geram V , então existe um vetor w ∈ V que não pode ser escrito como

combinação linear deles. Sejam α1, . . . , αn, β ∈ R tais que

α1v1 + · · ·+ αnvn + βw = 0.

Observemos que se β = 0, então αi = 0 para todo i = 1, . . . , n, pois os

vetores v1, v2, . . . , vn são linearmente independentes. Se β 6= 0, então

− 1

β(α1v1 + · · ·+ αnvn) = w,

o que contradiz a escolha de w. Assim, β = α1 = · · · = αn = 0. Como temos

que o conjunto com n+1 vetores formado por v1, v2, . . . , vn, w é linearmente

independente, então a dimensão de V é pelo menos n+ 1. Absurdo.

Agora vamos provar que todo conjunto formado por n geradores não

nulos é linearmente independente. Sejam v1, v2, . . . , vn vetores não nulos que

geram o espaço V . Sabemos que sempre é possível extrair dentre eles um

subconjunto linearmente independente, digamos v1, . . . , vk. A�rmamos que

estes k vetores ainda geram V . De fato, como v1, . . . , vk, vk+1 é linearmente

dependente, devemos ter que

α1v1 + · · ·+ αkvk + βvk+1 = 0,

onde os escalares não são todos nulos. Mais ainda, note que β 6= 0. Assim,

vk+1 pode ser escrito como uma combinação linear dos vetores v1, . . . , vk.

Analogamente, mostramos que cada vk+j, com 1 ≤ j ≤ n− k, também pode

ser escrito como uma combinação linear dos vetores v1, . . . , vk. Desta forma,

pela Proposição 3.1.7, concluímos a prova da a�rmação. Portanto, os vetores

v1, . . . , vk formam uma base de V . Como dimV = n, segue que k = n, ou

seja, o conjunto original já era linearmente independente.

3.2* Seja V o espaço das matrizes simétricas 2× 2, ou seja,

V =

{[a b

b c

]a, b, c ∈ R

}.

Page 284: MA33 - Introdução à Álgebra Linear

275

Vejamos que o conjunto β é uma base de V , onde

β =

{[1 0

0 0

],

[0 1

1 0

],

[0 0

0 1

]}.

De fato, β gera V , uma vez que todo elemento de V é da forma[a b

b c

]= a

[1 0

0 0

]+ b

[0 1

1 0

]+ c

[0 0

0 1

].

Sejam a, b, c ∈ R tais que

a

[1 0

0 0

]+ b

[0 1

1 0

]+ c

[0 0

0 1

]=

[0 0

0 0

].

Temos que a = b = c = 0, o que mostra que β é linearmente independente.

3.3* (a) Temos que

U = {(a, b, c, d) ; b+ c+ d = 0)} = {(a, b, c,−(b+ c)) ; a, b, c ∈ R}.

A�rmamos que BU = {(1, 0, 0, 0), (0, 1, 0,−1), (0, 0, 1,−1)} é uma base de U .

De fato, se (a, b, c, d) ∈ U , então

(a, b, c, d) = a(1, 0, 0, 0) + b(0, 1, 0,−1) + c(0, 0, 1,−1)

e se α, β, γ ∈ R são tais que

α(1, 0, 0, 0) + β(0, 1, 0,−1) + γ(0, 0, 1,−1) = 0,

segue que α = β = γ = 0. Portanto, BU é uma base de U e a dimensão de

U é três.

(b) Temos que

W = {(a, b, c, d) ; a+ b = 0, c = 2d} = {(a,−a, 2d, d) ; a, d ∈ R}.

A�rmamos que BW = {(1,−1, 0, 0), (0, 0, 0, 2, 1)} é uma base de W . Seja

(a, b, c, d) ∈ W . Então

(a, b, c, d) = a(1,−1, 0, 0) + d(0, 0, 2, 1)

Page 285: MA33 - Introdução à Álgebra Linear

276 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS

e se α, β ∈ R são tais que

α(1,−1, 0, 0) + β(0, 0, 2, 1) = (α,−α, 2β, β) = 0,

segue que α = β = 0. Portanto, BW é uma base de W e a dimensão de W é

dois.

(c) Temos que

U∩W = {(a, b, c, d) ; b+c+d = 0, a+b = 0, c = 2d} = {(3d,−3d, 2d, d) ; d ∈ R}.

A�rmamos que B = {(3,−3, 2, 1)} é uma base de U ∩ W . De fato, se

(a, b, c, d) ∈ U ∩W , então

(a, b, c, d) = (3d,−3d, 2d, d) = d(3,−3, 2, 1).

Portanto, B é uma base de U ∩W e a dimensão de U ∩W é um.

(d) Observe que

dim(U +W ) = dimU + dimW − dim(U ∩W ) = 4.

Logo, U +W = R4. Assim, podemos escolher como base de U +W qual-

quer base de R4. Por exemplo, a base canônica {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0),(0, 0, 0, 1)}.

3.4 (a) dependente, já que v3 = 2v1 − 2v2.

(b) β = {(1, 1, 0), (0, 1,−1)}.(c) dim(G(α)) = 2, porque β é uma base para G(α).

3.6 Os vetores formam uma base para M(2, 2).

3.9 4.

3.10 (a) 2. (b) Não. Porque

[2 1

3 4

]/∈ W .

3.11 (a) {(−3, 1,−3, 5)}, 1.(b) {(−1, 1, , 0, 0), (2, 0, 1, 0), (−1, 0, 0, 1)}, 3.

Page 286: MA33 - Introdução à Álgebra Linear

277

3.13 (a) 11/28, 1/14. (b) 1,−1. (c) 2, 0,−1.

4.1* Seja U ⊆ R4 gerado pelos vetores (1,−2, 3,−3), (2, 3, 1,−4), (3, 8,−3,−5).

(a) Sejam a, b, c ∈ R tais que

a(1,−2, 3,−3) + b(2, 3, 1,−4) + c(3, 8,−3,−5) = 0.

Temos que a, b, c devem satisfazer o sistema lineara+ 2b+ 3c = 0

−2a+ 3b+ 8c = 0

3a+ b− 3c = 0

−3a− 4b− 5c = 0 .

Somando as duas últimas equações obtemos 3b = −8c e substituindo na se-

gunda equação obtemos 2a = 0. Assim, a = b = c = 0. Logo, (1,−2, 3,−3),(2, 3, 1,−4), (3, 8,−3,−5) é uma base de U e sua dimensão é três.

(b) Chamemos u1 = (1,−2, 3,−3), u2 = (2, 3, 1,−4) e u3 = (3, 8,−3,−5).Devemos achar um vetor v ∈ R4 de modo que o conjunto B = {u1, u2, u3, v}seja linearmente independente, ou seja, devemos achar um vetor v que não

seja combinação linear dos vetores u1, u2 e u3. Ora, U é o espaço gerado por

u1, u2 e u3. Equivalentemente, U é o espaço linha da matriz

A =

1 −2 3 −32 3 1 −43 8 −3 −5

.Reduzindo a matriz A a sua forma escalonada obtemos a matriz

R =

1 0 0 −30 1 0 0

0 0 1 0

.

Page 287: MA33 - Introdução à Álgebra Linear

278 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS

Os vetores linha não nulos da matriz R são w1 = (1, 0, 0,−3), w2 = (0, 1, 0, 0)

e w3 = (0, 0, 1, 0). Assim,

U = G(u1, u2, u3)

= G(w1, w2, w3)

= {a(1, 0, 0,−3) + b(0, 1, 0, 0) + c(0, 0, 1, 0) ; a, b, c ∈ R}= {(a, b, c,−3a) ; a, b, c ∈ R}.

Portanto, para um vetor v ∈ R4 não ser combinação linear dos vetores u1, u2e u3, basta v não ser da forma (a, b, c,−3a), onde a, b, c ∈ R. Desse modo,

tomemos v = (1, 0, 0, 0). O conjunto B = {u1, u2, u3, v} é linearmente inde-

pendente e, portanto, é uma base de R4.

4.2* Seja U ⊆ R4 gerado pelos vetores u1 = (2, 4,−2, 6), u2 = (1, 2, 1/2,−1)e u3 = (3, 6, 3,−5) e seja W ⊆ R4 gerado pelos vetores w1 = (1, 2,−4, 11)e w2 = (2, 4,−5, 14). Para mostrarmos que U = W , basta mostrar, pela

Proposição 3.1.7, que cada vetor ui é combinação linear dos vetores w1 e w2

para i = 1, 2, 3 e que, para j = 1, 2, cada vetor wj é combinação linear dos

vetores u1, u2 e u3.

Vamos mostrar que u1 é combinação linear dos vetores w1 e w2. Para isto,

temos que achar a, b,∈ R tais que u1 = aw1 + bw2. Como u1 = −2w1 + 2w2,

mostramos o que queríamos. Analogamente podemos ver que

u2 = −2w1 + (3/2)w2,

u3 = −7w1 − (5/7)w2,

w1 = (5/4)u1 + 0u2 − (1/2)u3,

w2 = (13/8)u1 + 1u2 − (3/4)u3.

4.3 Os vetores formam uma base para R3.

4.4 {w1, w2} é uma base para W , pois {w1, w2} é independente e w3 ∈G(w1, w2) já que w3 = 2w1 + 6w2. Portanto, dimW = 2.

Page 288: MA33 - Introdução à Álgebra Linear

279

O conjunto {w1, w2, (0, 0, 1, 0), (0, 0, 0, 1)} estende {w1, w2} a uma base

de R4.

4.5 (0, 0, 0, 1, 0) e (0, 0, 0, 0, 1).

Capítulo 4

1.2* Sejam u, v e w três vetores quaisquer em R3. Podemos supor que u e v

são não nulos.

(⇒) Se u, v e w são dependentes, existem a, b, c ∈ R não simultaneamente

nulos tais que au+ bv+ cw = 0. Se a 6= 0, temos que u = −(b/a)v− (c/a)w,

o que mostra que u, v e w pertencem ao plano que passa pela origem que tem

v e w como vetores base.

(⇐) Suponhamos que u, v e w pertencem a um plano π que passa pela origem.

Sabemos que π é um subespaço de R3 de dimensão dois. Assim, qualquer

conjunto com mais de dois elementos de π será dependente, em particular,

{u, v, w} é dependente.

1.3* Consideremos v1 = B − A = (3,−3, 1) e v2 = C − A = (0,−3, 1). Sejaπ o plano que passa pelos pontos A,B e C. Um vetor normal n ao plano π é

dado pelo produto vetorial de v1 e v2. Logo, n = v1 × v2 = (0, 3, 6) é um tal

vetor. Assim, 3y + 6z + d = 0 é uma equação geral do plano π, onde d é um

número real a se determinar. Como A ∈ π, segue que 3(2) + 6(0) + d = 0, o

que nos dá que d = −6. Assim, 3y + 6y − 6 = 0 é a equação geral do plano

π.

1.4 (a) {(1, 0, 3), (0, 1,−4)}. (b) {(2,−1, 3)}. (c) {(1, 1, 0), (0, 0, 1)}.

1.5x−24

= y + 4 = z−7−8 .

1.7 x− 2 = y − 3 = −z.

1.8 x = 2z+1−3 , y = 1− z.

1.9 k = −5.

Page 289: MA33 - Introdução à Álgebra Linear

280 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS

1.11 k = −21/7.

1.13 x = −4/3t−2s, y = t, z = 2+s, sendo t e s números reais quaisquer.

1.14 x = 2− 7t+ 3s, y = −1 + t+ s, z = −5t+ 2s, sendo t e s números

reais quaisquer.

1.15 (2, 1, 0), (0,−3, 2), (3/2, 0, 1/2), respectivamente.

2.1* (a)⇒ (b): Suponhamos que r1 e r2 estejam num mesmo plano, digamos

π(Q, u1, u2). Ora, como r1 ⊂ π e r2 ⊂ π, segue que A1 ∈ π e A2 ∈ π. Assim,

existem m,n, t, s ∈ R tais que

A1 = Q+mu1 + nu2 (1)

e

A2 = Q+ tu1 + su2. (2)

Consequentemente, v ∈ G(u1, u2). Como A1 + v1 ∈ r1 e A2 + v2 ∈ r2, segueque existem a, b, c, d ∈ R tais que

A1 + v1 = Q+ au1 + bu2 (3)

e

A2 + v2 = Q+ cu1 + du2, (4)

já que A1 + v1, A2 + v2 ∈ π. Substituindo (1) em (3) e substituindo (2) em

(4), concluímos que v1 ∈ G(u1, u2) e v2 ∈ G(u1, u2). Mostramos, então, que

{v, v1, v2} ⊂ G(u1, u2). Como dim(G(u1, u2)) = 2, qualquer conjunto com

mais de dois vetores é dependente. Portanto, {v, v1, v2} é dependente.

(b)⇒ (a): Os vetores v, v1 e v2 pertencem a um mesmo plano que passa pela

origem, digamos π = π(0, w1, w2). Assim, existem a, b, c, d, e, f ∈ R tais que

v = aw1 + bw2,

v1 = cw1 + dw2,

v2 = ew1 + fw2.

Page 290: MA33 - Introdução à Álgebra Linear

281

Tome P ∈ r1. Então, existe t ∈ R tal que P = A1 + tv1 = A1 + (tc)w1 +

(td)w2, mostrando que r1⊂π(A1, w1, w2). A�rmamos que r2⊂π(A1, w1, w2)

também. Ora, se P ∈ r2, então existe t ∈ R tal que P = A2 + tv2 =

A1 + aw1 + bw2 + (te)w1 + (tf)w2 = A1 + (a+ te)w1 + (b+ tf)w2, mostrando

que P ∈ π(A1, w1, w2). Portanto, ambas as retas r1 e r2 pertencem ao plano

π(A1, w1, w2).

2.2* Note que

r1 = {(0,−3, 0) + t(1, 2,−1) ; t ∈ R}

e

r2 = {(1, 4, 0) + t(−36,−6, 3) ; t ∈ R}.

Devemos veri�car se o conjunto {(1, 2,−1), (−36,−6, 3), v}, em que v =

(1, 7, 0), é linearmente independente ou não. É fácil veri�car que é line-

armente independente. Assim, as retas são reversas.

2.3 Concorrentes.

2.5 a = 1, b = −2, c = 4.

2.6 a = 4, b = 3.

3.5 x = 10.

3.6* Devemos resolver pela regra de Cramer o sistema linear AX = B, onde

A =

[cos θ − sen θ

sen θ cos θ

], X =

[x′

y′

]e B =

[x

y

].

Como detA = 1, segue pela regra de Cramer que

x′ =detA1

detA= detA1 e y′ =

detA2

detA= detA2,

em que

A1 =

[x − sen θ

y cos θ

]e A2 =

[cos θ x

sen θ y

].

Portanto,

x′ = x cos θ + y sen θ e y′ = −x sen θ + y cos θ.

Page 291: MA33 - Introdução à Álgebra Linear

282 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS

Capítulo 5

1.4* Sejam A,C ∈ V e sejam a, c ∈ R. Temos

T (aA+ cC) = (aA+ cC)B +B(aA+ cC)

= aAB + cCB + aBA+ cBC

= a(AB +BA) + c(CB +BC)

= aT (A) + cT (C),

mostrando que T é uma transformação linear.

1.6 (a) T (u+ v) = 3u+ v. (b) T (3v) = 3u+ 3v.

(c) T (−3u) = −6u. (d) T (u− 5v) = −3u− 5v.

1.7 (a), (c) e (e) são transformações lineares.

(b) Não, pois T (2(1, 1)) 6= 2T (1, 1).

(d) Não, pois T (−1(1, 1)) 6= −1T (1, 1).(f) É linear somente se a = 0.

1.8 (a) n = 2, m = 3 e T (x, y) = (−x+ 2y,−3x+ 2y, y − x).(b) n = m = 3 e T (x, y, z) = (−x+ 4y − z, 5x− 5y − z, x+ 3z).

2.1* Para mostrarmos que a imagem de T é um subespaço vetorial de W ,

devemos mostrar que se w1, w2 ∈ ImT e a ∈ R, então w1 + w2, aw1 ∈ ImT .

Ora, como w1, w2 ∈ ImT , existem v1, v2 ∈ V tais que T (v1) = w1 e T (v2) =

w2. Assim w1+w2 = T (v1)+T (v2) = T (v1+v2) e, portanto, w1+w2 ∈ ImT .

Como aw1 = aT (v1) = T (av1), temos que aw1 ∈ ImT .

2.2* (a) Pela de�nição, (x, y, z) ∈ KerT quando (x, y, z) é solução do sistema

linear x+ 2y − z = 0

y + 2z = 0

x+ 3y + z = 0.

Resolvendo o sistema acima, obtemos x = 5z e y = −2z, com z ∈ R. Assim,

KerT = {(5z,−2z, z) ; z ∈ R}. Como KerT é um subespaço de R3 e sua

dimensão é 1, KerT é uma reta que passa pela origem.

Page 292: MA33 - Introdução à Álgebra Linear

283

(b) x = 5t

y = −2t, t ∈ R

z = t

.

(c) Como dimKerT = 1, segue do teorema do núcleo e da imagem que

dim ImT = 2. Portanto, Im T é um plano que passa pela origem.

(d) Ora,

ImT = G(T (1, 0, 0), T (0, 1, 0), T (0, 0, 1))

= G(((1, 0, 1), (2, 1, 3), (−1, 2, 1))= G((1, 0, 1), (2, 1, 3)),

já que (−1, 2, 1) = −5(1, 0, 1) + 2(2, 1, 3). Portanto,

ImT = π(0, v1, v2),

onde v1 = (1, 0, 1) e v2 = (2, 1, 3). Assim,x = m+ 2n

y = n, m, n ∈ R

z = m+ 3n

são as equações paramétricas procuradas.

2.4* Se {v1, . . . , vn} é uma base de V , então {T (v1), . . . , T (vn)} gera ImT .

Como dim ImT = n, segue que {T (v1), . . . , T (vn)} é uma base de ImT e,

consequentemente, uma base de W , já que ImT = W . Suponhamos agora

que {T (v1), . . . , T (vn)} é uma base de W . Para provarmos que {v1, . . . , vn}é uma base de V , basta mostrar que este conjunto é independente. Sejam

a1, . . . , an ∈ R tais que a1v1+· · ·+anvn = 0. Temos a1T (v1)+· · ·+anT (vn) =0, portanto, ai = 0 para todo 1 ≤ i ≤ n.

2.6* Vamos resolver este exercício de dois modos:

Page 293: MA33 - Introdução à Álgebra Linear

284 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS

1o) Usando R[x]3: se p(x)=ax3 + bx2 + cx + d∈W , então a − b + c − d=0.

Assim,p(x) = (b− c+ d)x3 + bx2 + cx+ d

= b(x3 + x2) + c(−x3 + x) + d(x3 + 1).(1)

Chamando q1(x) = x3 + x2, q2(x) = −x3 e q3(x) = x3 + 1 temos, por (1),

que W = G(q1(x), q2(x), q3(x)). Como {q1(x), q2(x), q3(x)} é independente,

segue que este conjunto é uma base de W . Portanto, dimW = 3.

2o) Usando o fato que R[x]3 é isomorfo ao R4: a função T : R[x]3 → R4 dada

por T (ax3 + bx2 + cx + d) = (a, b, c, d) é um isomor�smo. Como T (W ) =

{(b− c+ d, b, c, d) ; b, c, d ∈ R}, para determinarmos a dimensão de W , basta

determinarmos a dimensão de T (W ). Consideremos v1 = (1, 1, 0, 0), v2 =

(−1, 0, 1, 0) v3 = (1, 0, 0, 1). Como {v1, v2, v3} é independente e gera T (W ),

já que

(b− c, d, b, c, d) = bv1 + cv2 + dv3,

segue que {v1, v2, v3} é uma base para T (W ). Portanto, dimT (W ) = 3 e,

consequentemente, dimW = 3.

2.7 (a) KerT = {(x, x, x) ; x ∈ R}, Im T = R2.

(b) KerT = {(0, 1/2w, 3/2w,w) ; w ∈ R}, Im T = R3.

(c) KerT = {0}, Im T = {p(x) = ax3 + bx2 + cx ; a, b, c ∈ R}.

(d) KerT =

{[a b

a b

]; a, b ∈ R

}, Im T =

{[a b

−4a −4b

]; a, b ∈ R

}.

(e) KerT = {0}, Im T = {(a+ b, 2b+ c, a+ 2b− c, c) ; a, b, c ∈ R}.

2.8 injetivas: (c) e (e); sobrejetivas: (a) e (b).

2.10 T (x, y, z) = (0, 0, x+y+3z3

).

2.11 T (x, y, z, t) = (−x− y + z, t− 2x− y, 0).

2.12 T (x, y, z) = (x, 2x+ y, 3x− y).

2.13 T (x, y, z) = (y + z, 3y,−y + z, 2y − z).

2.16 (a) T (x, y, z) = (x, y). (b) Não é possível.

Page 294: MA33 - Introdução à Álgebra Linear

285

(c) T (x, y, z) = (0, 0, 0). (d) T (x, y, z) = (x+ z, 0, 0, 0).

2.19 É invertível;

T−1(x, y, z) = (4x− 2y − 3z,−11x+ 6y + 9z,−12x+ 7y + 10z).

2.20 (a) ai 6= 0 para todo 1 ≤ i ≤ n.

(b) T−1(x1, x2, . . . , xn) = (a−11 x1, a−12 x2, . . . , a

−1n xn).

2.22 T : V → W dada por T ([aij]) = [bij], com bij = aij se i > j e bij = 0 se

i < j.

3.1* Como T : R3 → R4 está dada por T (x, y, z) = (x + y, z, x− y, y + z) e

S : R2 → R3 está dada por S(x, y) = (2x+ y, x− y, x− 3y), obtemos

(T ◦ S)(x, y) = T (2x+ y, x− y, x− 3y)

= ((2x+ y) + (x− y), x− 3y, (2x+ y)− (x− y),(x− y) + (x− 3y))

= (3x, x− 3y, x+ 2y, 2x− 4y).

3.3 (a) (T + S)(x, y) = (x, x).

(b) (5T − 4S)(x, y) = (5x+ 9y,−4x).(c) (S ◦ T )(x, y) = (0, x+ y).

(d) (T ◦ S)(x, y) = (x− y, 0).(e) T 3(x, y) = T (x, y).

(f) S−3(x, y) = (−y, x).

Capítulo 6

1.2* (a) Sejam α = {v1, . . . , vn} uma base de Rn e β = {w1, . . . , wm} uma

base de Rm. Sejam u, v ∈ Rn e a ∈ R. Digamos que u = x1v1 + · · ·+ xnvn e

v = y1v1 + · · ·+ ynvn. Logo, u+ av = (x1 + ay1)v1 + · · ·+ (xn+ ayn)vn. Pela

de�nição de T ,

[T (u+ av)]β = A[u+ av]α = A[u]α + aA[v]α = [T (u)]β + a[T (v)]β,

Page 295: MA33 - Introdução à Álgebra Linear

286 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS

onde a segunda igualdade segue das propriedades do produto de matrizes.

Logo, T é uma transformação linear.

(b) Pela de�nição da matriz [T ]αβ , sabemos que a primeira coluna desta

matriz é [T (v1)]β e usando a de�nição de T vemos que [T (v1)]β é precisamente

a primeira coluna de A. Procedemos de maneira análoga para as outras

colunas.

1.4* Basta mostrar que dim ImT = r, pois dimKerT = dimV − dim ImT .

O posto da matriz nos diz que temos r colunas linearmente independentes e

que qualquer conjunto com mais de r colunas será linearmente dependente.

Por outro lado, sabemos que as colunas da matriz geram a imagem e que

podemos obter a partir delas uma base para ImT escolhendo um subconjunto

linearmente independente maximal. Assim pelo visto acima, este conjunto

conterá exatamente r colunas.

1.5 T (x, y, z) = (−x+ 2z,−4x− y + 6z).

1.6

[T ]αβ =

3/2 −1 −1/2−1/2 1 −1/2−1/2 0 1/2

.

1.8 β = {(0, 1, 1), (1, 0, 0), (−3, 7, 1)}.

1.9

[T ]ββ =

1 1 1

0 2 4

0 0 4

.

1.11

[T ]αα =

0 0 0 1

1 0 0 0

0 1 0 0

0 0 1 0

.

Page 296: MA33 - Introdução à Álgebra Linear

287

1.12 a) Não existe v ∈ R2 tal que T (v) = I2.

(b) T (3,−1) =

[5 −35 4

].

2.1 T (x, y, z) = (23x+ 4

3y − 1

3z, 1

3x+ 2

3y + 1

3z, 2y − z)}.

2.2 (a) KerTA = {0}. (b) Im TA = G((1, 0, 1), (2, 1,−1)).(c) KerTB = {0}. (d) Im TB = R3.

(e) Ker(TB ◦ TA) = {0}. (f) Im (TB ◦ TA) = G((2,−1, 2), (2,−2, 3)).

3.1* Vejamos qual é a imagem de cada vetor da base canônica de R2. O vetor

(1, 0) se transforma no vetor (0, 1) pela rotação e depois no vetor (0, 1) pela

re�exão. Já o vetor (0, 1) se transforma no vetor (−1, 0) pela rotação e depoisno vetor (0,−1). Assim, a matriz desta transformação na base canônica é

A =

[1 0

0 −1

].

3.2* Vamos determinar a matriz da transformação na base canônica, pois

sabemos que a inversa desta matriz é a matriz da transformação inversa.

Temos

A =

1 0 0

0 1 0

0 0 −1

.Neste caso, a matriz inversa é igual à matriz. Assim a transformação inversa

é a própria transformação.

3.7 (a)

[0 0

3 0

]. (b)

[ √24−√24

−√24−√24

].

4.1 (a)

[13

43

13−2

3

],

[1 0

1 2

],

[1 0

−12

12

]. (b) [v]β =

[−23

].

4.2 α = {(1, 3), (−5,−12)}.

4.3

−1 1 0

1 0 0

0 −1 1

.

Page 297: MA33 - Introdução à Álgebra Linear

288 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS

4.8* A demonstração de (a) não apresenta di�culdade. Vamos provar (b).

Escrevamos A = (aij) e B = (blk). Temos que (AB)ii =∑n

j=1 aijbji e

(BA)jj =∑n

i=1 bjiaij . Assim,

trAB =∑n

i=1

∑nj=1 aijbji =

∑nj=1

∑ni=1 aijbji

=∑n

j=1

∑ni=1 bjiaij = trBA.

Vamos provar (c). De fato, existe uma matriz invertível P tal que [T ]αα =

P−1[T ]ββP , logo

tr[T ]αα = trP−1[T ]ββP = tr[T ]ββP−1P = tr[T ]ββ.

Capítulo 7

1.1* (a) Sejam u = (x1, x2), v = (y1, y2) e w = (z1, z2) em R2 e seja c em R.Temos:

1. 〈u, u〉 = 19x21 +

14x22 ≥ 0;

2. 〈u, u〉 = 19x21 +

14x22 = 0 se, e somente se x1 = x2 = 0, ou equivalente-

mente u = 0;

3. 〈u, v〉 = 19x1y1 +

14x2y2 =

19y1x1 +

14y2x2 = 〈v, u〉;

4. 〈u+ v, w〉 = 19(x1 + y1)z1 +

14(x2 + y2)z2 = (1

9x1z1 +

14x2z2) + (1

9y1z1 +

14y2z2) = 〈u,w〉+ 〈v, w〉;

5. 〈cu, v〉 = 19(cx1)y1 +

14(cx2)y2 = c(1

9x1y1 +

14x2y2) = c〈u, v〉.

Portanto, a expressão dada de�ne um produto interno em R2.

(b) Se V é um espaço com produto interno, então o conjunto dos vetores v

de V que satisfazem ||v|| = 1 é chamado de círculo unitário de V . Assim, o

círculo unitário de R2 usando o produto interno em (a) é dado pelo conjunto

dos vetores v = (x, y) em R2 tais que

||v|| = 〈v, v〉1/2 =√

1

9x2 +

1

4y2 = 1,

Page 298: MA33 - Introdução à Álgebra Linear

289

ou equivalentemente,x2

9+y2

4= 1.

A equação acima representa uma elipse de centro na origem e eixos maior e

menor paralelos aos eixos coordenados (Figura 24).

(c) Se v = (x, y) ∈ R2, então

||v|| = 〈v, v〉1/2 =√x2 + y2 = 1,

se, e somente se

x2 + y2 = 1.

A equação acima representa um círculo de centro na origem e raio 1 (Fi-

gura 24).

(d) Sim. O círculo unitário com a norma dada pelo produto interno em (a)

tem um formato elíptico.

Figura 24

1.4 (a) 8. (b) −11. (c) 14.

2.1 (a) 0. (b)√22. (c)

√63.

Page 299: MA33 - Introdução à Álgebra Linear

290 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS

2.2* Sejam u e v dois vetores de um espaço com produto interno. Então

||u+ v||2 + ||u− v||2 = 〈u+ v, u+ v〉+ 〈u− v, u− v〉= 〈u, u〉+ 2〈u, v〉+ 〈v, v〉+ 〈u, u〉 − 2〈u, v〉+ 〈v, v〉

= 2〈u, u〉+ 2〈v, v〉= 2||u||2 + 2||v||2.

2.9* Faremos a prova por indução sobre n. Se n = 2, então

||v1 + v2||2 = 〈v1 + v2, v1 + v2〉= 〈v1, v1〉+ 2〈v1, v2〉+ 〈v2, v2〉= ||v1||2 + ||v2||2,

já que 〈v1, v2〉 = 0. Suponhamos agora o resultado válido para n = k − 1.

Vamos mostrar que ele é válido para n = k. De fato, pelo caso n = 2 e pela

hipótese de indução, segue que

||v1 + · · ·+ vk−1 + vk||2 = ||v1 + · · ·+ vk−1||2 + ||vk||2

= ||v1||2 + · · ·+ ||vk−1||2 + ||vk||2,

pois 〈v1 + · · · + vk−1, vk〉 = 〈v1, vk〉 + · · · + 〈vk−1, vk〉 = 0. Por indução, o

resultado vale para todo n ∈ N \ {0}.

2.12* O conjunto {u, v} é uma base de W . Para mostrar que um vetor v

em R5 ∈ W⊥, ou seja, que 〈v, w〉 = 0 para todo w ∈ W , basta mostrar

que 〈v, u〉 = 〈v, v〉 = 0. Tomemos v = (x, y, z, w, t) ∈ R5. Temos que

〈v, u〉 = 〈v, v〉 = 0 se, e somente se,x+ 2y + 3z − w + 2t = 0

2x+ y + 3z − 2w − t = 0.

Page 300: MA33 - Introdução à Álgebra Linear

291

Equivalentemente,

x = 5z + w +4

3t e y = −z − 5

3t,

onde z, w, t ∈ R.Portanto,

W⊥ = {(5z + w +4

3t,−z − 5

3t, z, w, t) ; z, w, t ∈ R}.

Assim,

α = {(5,−1, 1, 0, 0), (1, 0, 0, 1, 0), (4/3,−5/3, 0, 0, 1)}

é uma base para W⊥.

2.13 Basta veri�car que 〈v, v1〉 = 0 e 〈v, v2〉 = 0, pois 〈v, av1 + bv2〉 =

a〈v, v1〉+ b〈v, v2〉 = 0, para quaisquer a e b em R.

2.14 x = 1 + t, y = −2t, z = −3t, sendo t ∈ R.

3.1 (a) Suponhamos que α = {v1, v2, . . . , vn}. Então

v = a1v1 + a2v2 + · · ·+ anvn,

já que a1, a2, . . . , an são as coordenadas de v na base α. Como α é um

conjunto ortogonal, segue pelo Problema 2.9 que

||v||2 = ||a1v1 + a2v2 + · · ·+ anvn||2

= ||a1v1||2 + ||a2v2||2 + · · ·+ ||anvn||2.

Pela Proposição 7.2.2(c), temos

||a1v1||2 + ||a2v2||2 + · · ·+ ||anvn||2

= |a1|2||v1||2 + |a2|2||v2||2 + · · ·+ |a2n||vn||2

= a21 + a22 + · · ·+ a2n,

pois ||v1|| = ||v2|| = · · · = ||vn|| = 1. Portanto,

||v||2 = a21 + a22 + · · ·+ a2n.

Page 301: MA33 - Introdução à Álgebra Linear

292 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS

Extraindo as raízes quadradas de ambos os lados da igualdade acima obtemos

||v|| =√a21 + a22 + · · ·+ a2n.

(b) Por de�nição, d(v, w) = ||v − w||. Como

v − w = (a1 − b1)v1 + (a2 − b2)v2 + · · ·+ (an − bn)vn,

segue do item (a) que

d(v, w) =√

(a1 − b1)2 + (a2 − b2)2 + · · ·+ (an − bn)2.

(c) Ora,

〈v, w〉 = 〈a1v1 + a2v2 + · · ·+ anvn, b1v1 + b2v2 + · · ·+ bnvn〉= a1b1〈v1, v1〉+ a1b2〈v1, v2〉+ · · ·+ a1bn〈v1, vn〉+ a2b1〈v2, v1〉+ a2b2〈v2, v2〉+ · · ·+ a2bn〈2, vn〉+ · · ·+ anb1〈vn, v1〉+ anb2〈vn, v2〉+ · · ·+ anbn〈vn, vn〉

= a1b1 + a2b2 + · · ·+ anbn,

já que 〈vi, vj〉 = 0 sempre que i 6= j e 〈vi, vi〉 = 1 para todo i.

3.4* (a) Pelo Teorema 14, v = v1+v2 onde v1 = projWv ∈ W e v2 = v−v1 ∈W⊥. Como v1 ∈ W e {w1, w2, . . . , wn} é uma base de W , v1 se escreve de

modo único como combinação linear dos vetores w1, w2, . . . , wn, digamos

v1 = a1w1 + a2w2 + · · ·+ anwn. (1)

Vamos mostrar que, para cada 1 ≤ i ≤ n, ai = 〈v, wi〉. Ora como

v − v1 ∈ W⊥, segue que 〈v − v1, w〉 = 0 para todo w ∈ W . Em particular,

〈v − v1, wi〉 = 0 para todo 1 ≤ i ≤ n. Consequentemente,

〈v, wi〉 = 〈v1, wi〉 para todo 1 ≤ i ≤ n.

Fixemos agora 1 ≤ i ≤ n. Temos

〈v, wi〉 = 〈v1, wi〉 = 〈a1w1 + a2w2 + · · ·+ anwn, wi〉 = ai, (2)

Page 302: MA33 - Introdução à Álgebra Linear

293

pois {w1, w2, . . . , wn} é um conjunto ortonormal. Substituindo (2) em (1),

obtemos

projWv = 〈v, w1〉w1 + 〈v, w2〉w2 + · · ·+ 〈v, wn〉wn.

(b) A demonstração é análoga à prova acima, sendo que, neste caso, para

cada 1 ≤ i ≤ n

〈v, wi〉 = ai〈wi, wi〉 = ai||wi||2

e, consequentemente,

ai =〈v, wi〉||wi||2

.

3.5 {w1, w2, w3, w4}, sendo w1 = (0, 2, 1, 0), w2 = (1,−1/5, 2/5, 0),w3 = (1/2, 1/2,−1,−1) e w4 = ( 4

15, 415,− 8

15, 45).

3.6 (−1/2, 5/2,−2, 4).

3.7 {(2/√5, 1/√5, 0), (−1/

√5, 2/√5, 0), (0, 0, 1)}.

4.1* Sejam S e T operadores lineares num espaço com produto interno de

dimensão �nita V e seja k ∈ R. Sejam u, v ∈ V quaisquer.

(a) 〈(S + T )(u), v〉 = 〈S(u), v〉+ 〈T (u), v〉 = 〈u, S∗(v)〉+ 〈u, T ∗(u)〉= 〈u, (S∗ + T ∗)(v)〉;

Assim, (T + S)∗ = T ∗ + S∗.

(b) 〈(kT )(u), v〉 = k〈T (u), v〉 = 〈u, T ∗(v)〉 = 〈u, kT ∗(v)〉;

Logo, (kT )∗ = kT ∗.

(c) 〈(ST )(u), v〉 = 〈T (u), S∗(v)〉 = 〈u, T ∗(S∗(v))〉;

Assim, (ST )∗ = T ∗S∗.

(d) 〈T ∗(u), v〉 = 〈v, T ∗(u)〉 = 〈T (v), u〉 = 〈u, T (v)〉.

Logo, (T ∗)∗ = T .

4.2 u = (1, 4,−5).

4.3 T ∗(x, y, z) = (2x+ 3y, 2x+ z,−4y).

Page 303: MA33 - Introdução à Álgebra Linear

294 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS

4.6 (a), (c) e (d) são operadores ortogonais.

4.7* A segunda linha (a, b, c) deve satisfazer duas condições: a2+b2+c2 = 1 e

a+2b+2c = 0. Assim, 5b2+5c2+8bc = 1. Escolhendo c = 0, obtemos b =√55

e a = −2√5

5. Para a terceira linha (d, e, f), queremos que d2 + e2 + f 2 = 1,

d + 2e + 2f = 0 e que −2e + f = 0, ou seja, devemos ter que d = −2√5

15,

e = −4√5

15e f = 5

√5

15.

4.9 (a)

[2√5

1√5

− 1√5

2√5

].

(b)

13−2

323

−23−2

3−1

3

−23

13

23

.

Capítulo 8

2.2* Por indução sobre n. Para n = 2, o resultado é óbvio. Suponhamos o

resultado válido para n − 1 e seja A = [aij] uma matriz triangular superior

de ordem n. Então aij = 0 para todo j < i.

Pelo Teorema 8.2.1,

detA = a11 det(A(1|1)),

já que ai1 = 0 para todo 2 ≤ i ≤ n. Como a matriz A(1|1) é uma matriz

triangular superior de ordem n − 1, com a22, . . . , ann como elementos da

diagonal principal, temos, pela hipótese de indução, que

detA(1|1) = a22 . . . ann,

o que termina a prova o resultado.

2.3* Seja a ∈ R. Fazendo o desenvolvimento de Laplace pela primeira linha

Page 304: MA33 - Introdução à Álgebra Linear

295

obtemos

detA = det

a a2 a3

a2 a3 a4

a3 a4 a5

− det

1 a2 a3

1 a3 a4

1 a4 a5

+det

1 a a3

1 a2 a4

1 a3 a5

− det

1 a a2

1 a2 a3

1 a3 a4

= a det

a a a3

a2 a2 a4

a3 a3 a5

− a det1 a2 a2

1 a3 a3

1 a4 a4

+a2 det

1 a a

1 a2 a2

1 a3 a3

− det

1 a a

1 a2 a2

1 a3 a3

.Note que cada uma das matrizes anteriores tem duas colunas iguais e, por-

tanto, cada uma delas tem determinante nulo. Consequentemente, detA = 0.

4.1 (a) {(0, 0, 0)}. (b) {(−1, 3, 1,−1)}.

Capítulo 9

1.1* A(c) = {v ∈ V ;T (v) = cv}. Tomemos v e w em A(c) e tomemos a e b

em R. Pela linearidade de T , T (av+ bw) = aT (v)+ bT (w). Como T (v) = cv

e T (w) = cw, segue que T (av+bw) = a(cv)+b(cw) = c(av+bw), mostrando

que av + bw ∈ A(c). Portanto, A(c) é um subespaço vetorial de V .

1.2 (a) Não tem autovalores e autovetores.

(b) 1, {(x,−x,−x) ;x 6=0}; −1, {(0,−3x, x) ;x 6=0}; 2, {(0, 0, x) ;x 6=0}.

(c) 1, {ax2 + bx+ b ; a 6= 0 ou b 6= 0}; −1, {ax− a ; a 6= 0}.

Page 305: MA33 - Introdução à Álgebra Linear

296 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS

(d) 1,

{[0 0

0 a

]; a 6= 0

};

−1,

{[−2a a

a 0

]; a 6= 0

};

−2,

{[a 0

−a 0

]; a 6= 0

}.

1.3 (a) c = 0, {(x,−x) ;x 6= 0}; c = 4, {(x, x) ;x 6= 0}.

(b) c = 1, {(−y − 2z, y, z) ; y 6= 0 ou z 6= 0}; c = 2, {(0, y,−y) ; y 6= 0}.

(c) c = 0, {(0, 0, 0, x) ;x 6= 0}; c = 2, {(−x,−2y, x, y) ;x 6= 0 ou y 6= 0};c = 4, {(x, 0, 0, 0) ;x 6= 0}.

1.5 T (x, y, z) = (x, 2x− y + 2z, 4x− 4y + 5z).

1.6* Seja (x, y, z) em R3. Então,

(x, y, z) = (x+ y − z)(1, 1, 1) + (−x− y + 2z)(0, 1, 1) + (y − z)(−1, 1, 0),

o que pela linearidade de T nos dá que

T (x, y, z) = (x+y−z)T (1, 1, 1)+(−x−y+2z)T (0, 1, 1)+(y−z)T (−1, 1, 0).

Como T (1, 1, 1) = (1, 1, 1), T (0, 1, 1) = (0, 2, 2) e T (−1, 1, 0) = (1,−1, 0),segue que

T (x, y, z) = (x+ y − z)(1, 1, 1) + (−x− y + 2z)(0, 2, 2) + (y − z)(1,−1, 0)= (x+ 2y − 2z),−x− 2y + 4z,−x− y + 3z).

1.8 1 0 0

−1 −12−1

2

1 −12−1

2

.

Page 306: MA33 - Introdução à Álgebra Linear

297

2.1* Calcular os autovalores e os autovetores de uma matriz A nada mais é

do que calcular os autovalores e os autovetores de TA. Assim,

det

[c− 2 3

1 c− 4

]= c2 − 6c+ 5,

nos dando que c = 1 e c = 5 são os autovalores de A. O conjunto solução do

sistema linear [−1 3

1 −3

][x

y

]=

[0

0

]é dado por {(3x, x) ;x ∈ R} e o conjunto solução do sistema linear[

3 3

1 1

][x

y

]=

[0

0

]

é dado por {(x,−x) ;x ∈ R}. Assim, os autovetores associados a c = 1 são

os vetores da forma (3x, x), x 6= 0 e os autovetores associados a c = 4 são os

vetores da forma (x,−x), x 6= 0.

2.2* Seja A ∈M(n). A matriz A é invertível se, e somente se, KerTA = {0}.Agora, KerTA = {0} se, e somente se, não existe v ∈ Rn, não nulo, tal que

TA(v) = 0 = 0 · v. Portanto, A é invertível se, e somente se, c = 0 não é um

autovalor de A.

3.1* Sabemos que o cálculo dos autovalores de T independe da base consi-

derada em R3. Assim,

det

t− 1 −2 0

−1 t+ 1 0

1 0 t− 2

= (t− 2)(t−√3)(t+

√3).

Portanto, T tem três autovalores distintos. Como dimR3 = 3, existe uma

base de R3 formada de autovetores de T e, assim, T é diagonalizável.

3.2 (a) verdadeiro (b) verdadeiro (c) falso (d) falso

3.3 (a) Não é diagonalizável.

Page 307: MA33 - Introdução à Álgebra Linear

298 CAPÍTULO 10. SOLUÇÕES E RESPOSTAS

(b) P =

[1 4

−1 3

]. (c) P =

0 1 −11 0 0

−1 0 1

.3.4 (a) c 6= 1. (b) c = 0.

3.5 (a) I3. (b) A. (c) I3.

3.6* Seja α a base canônica de R2. Então,

P[T ]αα(t) = det

[t− 2 2

1 t− 3

]= t2 − 5t+ 4,

o que nos dá que c1 = 1 e c2 = 4 são os autovalores de T . O conjunto solução

do sistema linear [−1 2

1 −2

][x

y

]=

[0

0

]e o conjunto solução do sistema linear[

2 2

1 1

][x

y

]=

[0

0

]

é o autoespaço associado a c1 = 1 e o autoespaço associado a c2 = 4, respec-

tivamente. Assim, (2, 1) é um autovetor associado a c1 = 1 e (1,−1) é um

autovetor associado a c2 = 4. Portanto, β = {(2, 1), (1,−1)} é uma base de

R2 tal que [T ]ββ é uma matriz diagonal.

5.1* (a) Temos que

x2 − 4x− 2y + 4 = 0 ⇐⇒ (x− 2)2 = 2y ⇐⇒ y =1

2(x− 2)2.

Portanto, a equação representa uma parábola.

(b) A equação 4x2 − 3y2 + 24xy − 156 = 0 equivale a equação matricial

[x y

] [ 4 12

12 −3

][x

y

]+ [−156] = [0]. (1)

Page 308: MA33 - Introdução à Álgebra Linear

299

A matriz

A =

[4 12

12 −3

]é simétrica. Logo, pelo Teorema Espectral, A é ortogonalmente diagona-

lizável. De fato, c1 = 13 e c2 = −12 são os autovalores de A. O vetor

v1 = (4/5, 3/5) é um autovetor associado a c1 = 13 e o vetor v2 = (−3/5, 4/5)é um autovetor associado a c2 = −12. Logo, a base β = {v1, v2} é uma base

ortonormal de R2 formada por autovetores. Seja P = [IR2 ]βα, onde α é a base

canônica de R2. Chame D = P−1AP . Temos

P =

[45−3

535

45

]e D =

[13 0

0 −12

]. (2)

Chamando [v]β de

[x′

y′

], onde v = (x, y) ∈ R2, de (1) e (2) obtemos a equação

matricial [x′ y′

] [13 0

0 −12

][x′

y′

]+ [−156] = [0],

que equivale a equação

13x′2 − 12y′2 − 156 = 0,

ou seja,x′2

12− y′2

13= 1.

Portanto, a equação 4x2 − 3y2 + 24xy − 156 = 0 representa uma hipérbole.

5.2

(a) ∅. (b) elipse. (c) duas retas paralelas.

(d) uma reta. (e) hipérbole. (f) elipse.

(g) parábola. (h) elipse. (i) hipérbole.