Universidade Federal do Paraná 1◦ semestre 2015.
Algebra Linear, CM 005 Olivier Brahic
Lista de exercícios 7
Independência Linear.
Exercício 1: Determine se os seguintes vetores são linearmente independentes em R2: a) 2 1 , 3 2 , b) 2 3 , 4 6 , c) −2 1 , 1 3 , 2 4 , d) −2 1 , 1 −2 , 2 −4 , e) 1 2 , −1 1 ,
Exercício 2: Determine se os seguintes vetores são linearmente independentes em R3:
a) 1 0 0 , 0 1 1 , 1 0 1 , b) 1 0 0 , 0 1 1 , 1 0 1 , 1 2 3 , c) 2 1 −2 , 3 2 −2 , 2 2 0 , d) 2 1 −2 , −2 −1 2 , 4 2 −4 , e) 1 1 3 , 0 2 1 ,
Exercício 3: Para cada um dos conjuntos de vetores no exercício 2, descreva geometricamente a cobertura dos vetores dados.
Exercício 4: Determine se os seguintes vetores são linearmente independentes em R2×2: a) 1 0 1 1 , 0 1 0 0 , b) 1 0 0 1 , 0 1 0 0 , 0 0 1 0 , c) 1 0 0 1 , 0 1 0 0 , 2 3 0 2 ,
Exercício 5: Sejam x1, . . . , xn vetores linearmente independentes em um espaço vetorial.
a) Se adicionarmos um vetor xn+1 à coleção, ainda teremos uma coleção linearmente independente de vetores ? Explique.
b) Se eliminarmos um vetor, por exemplo x1, da coleção, ainda teremos uma coleção linearmente
Exercício 6: Sejam x1, x2, x3 vetores linearmente independentes em Rn, e seja:
y1 = x1+ x2, y2= x2+ x3, y3 = x3+ x1.
São y1, y2, y3 linearmente independentes ? Demostre sua resposta.
Exercício 7: Sejam x1, x2, x3 vetores linearmente independentes em Rn, e seja:
y1 = x2− x1, y2 = x2+ x1+ x3, y3 = x3+ 2x1.
São y1, y2, y3 linearmente independentes ? Demostre sua resposta.
Exercício 8: Determine se os seguintes vetores são linearmente independentes em P3:
a) 1, x2, x2− 1. b) 2, x2, x, 2x, 2x + 3. c) x + 2, x2− 1.
Exercício 9: Para cada um dos itens seguintes, mostre que os vetores dados são linearmente indepen-dentes em C[−1, 1]: Para cada um dos itens seguintes, mostre que os vetores dados são linearmente independentes em C[−1, 1]:
a) cos πx, sin πx. b) x, ex, e2x c) x2, ln(1 + x2), 1 + x2 d) x3, |x3|
Exercício 10: Demostre que qualquer conjunto finito de vetores que contém o vetor nulo deve ser linearmente independente.
Exercício 11: Demostre que qualquer subconjunto não vazio de um conjunto de vetores linearmente independentes {v1, . . . , vn} é também linearmente independente.
Exercício 12: Seja A uma matriz m × n, mostre que se A tem vetores colunas linearmente indepen-dentes, então N (A) = {0}.
Exercício 13: Seja A uma matriz 3 × 3 e sejam x1, x2, x3 vetores linearmente independentes em R3.
Correções
Correção do Exercício 1:
a) Lembremos que os vetores v1:= 2, 1|e v2 := 3, 2| são linearmente independentes se e somente se para escalares x1, x2 ∈ R, temos a seguinte implicação:
x1· v1+ x2· v2 = 0R2 =⇒ x1= x2 = 0.
Calculemos que a condição x1· v1+ x2· v2= 0R2 é equivalente a:
x1· v1+ x2· v2 = 0R2 ⇐⇒ x1·2 1 + x2·3 2 =0 0 ⇐⇒ ( 2x1+ 3x2= 0 x1+ 2x2= 0.
Logo v1 e v2 são linearmente independentes se e somente se o sistema à direita tem única solução
(x1, x2) = (0, 0), o que é o caso pois a matriz de coeficientes tem determinante 4 − 3 = 1, diferente
de 0.
b) Os vetores v1 := 2, 3
|
e v2 := 4, 6
|
não são linearmente independentes pois eles verificam a relação não trivial:
2v1− v2= 0R2.
Observação. Note que neste caso, temos:
x1· v1+ x2· v2= 0R2 ⇐⇒ x1·2 3 + x2· 4 6 =0 0 ⇐⇒ ( 2x1+ 3x2 = 0 x1+ 2x2 = 0.
É fácil resolver o sistema para ver que ele tem soluções não triviais, pois o conjunto soluções é dado por: S = {(x1, x2) ∈ R2 | (x1, x2) = α · (2, −1) onde α ∈ R}. c) Os vetores v1 := −2, 1 | , v2 := 1, 3 | e v3 := 2, 4 |
não são linearmente independentes pois verificam a seguinte relação não trivial:
2v1− 10v2+ 7v3 = 0R2.
Apesar de ser ’evidente’, esta relação é facilmente obtida resolvendo o sistema: (
−2x1+ x2+ 2x3 = 0
x1+ 3x2+ 4x3 = 0.
Observação. Aqui, pode se argumentar simplesmente que 3 vetores em R2 não podem ser linear-mente independentes pois R2 tem dimensão 2.
d) Os vetores −2, 1, 1, −2 e 2, −4 não são linearmente independentes pois verificam a seguinte relação não trivial:
0 · v1+ 2 · v2− v3 = 0R2.
Esta relação é facilmente obtida, ou por inspeção, ou resolvendo o sistema: (
−2x1+ x2+ 2x3 = 0
x1− 2x2− 4x3 = 0.
Observação. Aqui também, pode se argumentar simplesmente que 3 vetores em R2 não podem ser linearmente independentes pois R2 tem dimensão 2.
e) A matriz 1 −1 2 1
tem determinante diferente de 0, logo o sistema: (
x1− x2 = 0
2x1+ x2 = 0
tem única solução (x1, x2) = (0, 0). Segue que os vetores 1, 2 e −1, 1 são linearmente
indepen-dentes.
Observação. Aqui, pode-se concluir também resolvendo direitamente o sistema, mostrando que ele tem conjunto solução S = {(0, 0)}. Porem, este método da mais contas.
Correção do Exercício 2:
a) Os vetores em R3 dados por v1 := 1, 0, 0, v2 := 0, 1, 1
e v3 := 1, 0, 1
são linearmente independentes se e somente se temos a seguinte implicação:
x1· v1+ x2· v2+ x3· v3= 0R3 =⇒ x1 = x2= x3= 0,
onde x1, x2, x3 ∈ R são escalares.
Calculemos que a condição x1· v1+ x2· v2+ x3· v3 = 0R3 é equivalente a:
x1· v1+ x2· v2+ x3· v3= 0R3 ⇐⇒ x1· 1 0 0 + x2· 0 1 1 + x3· 1 0 1 = 0 0 0 ⇐⇒ x1 + x3 = 0 x2 = 0 x2+ x3 = 0.
Logo v1, v2 e v3 são linearmente independentes se e somente se o sistema tem única solução
b) Os vetores em R3 dados por v1 := 1, 0, 0, v2 := 0, 1, 1, v3 := 1, 0, 1 e v4 := 1, 2, 3, são
linearmente independentes se e somente se temos a seguinte implicação:
x1· v1+ x2· v2+ x3· v3+ x4· v4 = 0R3 =⇒ x1= x2 = x3 = x4= 0,
onde x1, x2, x3, x4 ∈ R são escalares.
Calculemos que a condição x1· v1+ x2· v2+ x3· v3+ x4· = 0R3 é equivalente a:
x1· v1+ x2· v2+ x3· v3+ x4· v4= 0R3 ⇐⇒ x1· 1 0 0 + x2· 0 1 1 + x3· 1 0 1 + x4· 1 2 3 = 0 0 0 ⇐⇒ x1 + x3+ x4= 0 x2 + 2x4= 0 x2+ x3+ 3x4= 0.
Logo v1, v2, v3 e v4 são linearmente independentes se e somente se o sistema tem única solução
(x1, x2, x3, x4) = (0, 0, 0, 0), o que não é o caso, pois tem conjunto solução:
S = {(x1, x2, x3, x4) ∈ R4 | (x1, x2, x3, x4) = α · (0, −2, −1, 1) onde α ∈ R}
Observação. Note pela sequencia que o conjunto solução admite uma variável livre.
c) A matriz 2 3 2 1 2 2 −2 −2 0
tem determinante diferentes de 0, logo o sistema:
2x1+ 3x2+ 2x3 = 0 x1+ 2x2+ 2x3 = 0 −2x1− 2x2 = 0
tem única solução (x1, x2, x3) = (0, 0, 0). Segue que os vetores 2, 1, −2, 3, 2, −2, 2, 2, 0, são
linearmente independentes.
Observação. Aqui, pode-se concluir também resolvendo direitamente o sistema, mostrando que ele tem conjunto solução S = {(0, 0, 0)}. Porem, este método da mais contas.
d) Os vetores v1 := 2 1 −2 , v2 := −2 −1 2 e v3 := 4 2 −4
satisfazem a seguinte relação não trivial:
v1− 2v2+ v3 = 0R3,
Observação. Note que não é a unica relação quev1, v2, v3 satisfazem, por exemplo temos:
v1− v2 = 0R3, v2+ 2 · v3 = 0
R3
Neste caso, resolvendo o sistema: 2x1− 2x2+ 4x3 = 0 x1− x2+ 2x3 = 0 −2x1+ 2x2− 4x3 = 0
obtemos um conjunto solução com duas variáveis livres:
S = {(x1, x2, x3) ∈ R3| (x1, x2, x3) = (α, −α + β, 2β), onde α, β ∈ R}.
e) Os vetores 1, 1, 3 e 0, 2, 1 são linearmente independentes pois o sistema: x1 = 0 x1+ 2x2= 0 3x1+ x2= 0
tem única solução (x1, x2) = (0, 0).
Correção do Exercício 3:
a) A maneira mais rápida de argumentar é a seguinte. Os vetores v1 := 1, 0, 0, v2 := 0, 1, 1 e
v3 := 1, 0, 1 são 3 vetores linearmente independentes (como vimos) no R3 que tem dimensão 3,
logo Cob{v1, v2, v3} = R3.
Pode-se argumentar também que Cob{v1, v2, v3} = R3 da seguinte maneira, que talvez é mais
instrutiva. A matriz: 1 0 1 0 1 0 0 1 1
tendo determinante diferente de zero, sabemos que para quaisquer escalares b1, b2, b3 ∈ R, o sistema:
x1 + x3 = b1 x2 = b2 x2+ x3 = b3.
admite uma solução (sabemos também que esta solução é única, mas não se precisa aqui, so a existência nos importa). Assim, vemos que para qualquer vetor b = (b1, b2, b3) ∈ R3 existem
escalares x1, x2, x3∈ R tais que:
x1· v1+ x2· v2+ x3· v3 = b.
Segue que qualquer vetor de R3 é combinação linear de v1, v2, v3, ou seja:
b) Lembremos que v1, v2, v3, e v4 são os vetores em R3 dados por
v1 := 1, 0, 0 , v2 := 0, 1, 1 , v3:= 1, 0, 1
v4 := 1, 2, 3 .
Vimos que v1, v2, v3 são linearmente independentes em R3, logo dim Cob{v1, v2, v3, v4} ≥ 3, e :
3 = dim R3≥ dim Cob{v1, v2, v3, v4} ≥ 3 ⇒ Cob{v1, v2, v3, v4} = R3.
Pode ser justificado de maneira mais ’pedestre’ assim. Observe que para qualquer vetor b = (b1, b2, b3) em R3, b é combinação linear de v1, v2, v3, v4 se e somante se o seguinte sistema admite
uma solução: x1· v1+ x2· v2+ x3· v3+ x4· v4= b ⇐⇒ x1· 1 0 0 + x2· 0 1 1 + x3· 1 0 1 + x4· 1 2 3 = b1 b2 b3 ⇐⇒ x1 + x3+ x4 = b1 x2 + 2x4 = b2 x2+ x3+ 3x4 = b3.
Agora, segue do item a) que este sistema sempre tem soluções (com x4 = 0...). Segue que: Cob{v1, v2, v3, v4} = R3. c) A matriz 2 3 2 1 2 2 −2 −2 0
tendo determinante diferente de 0, sabemos que, para qualquer triplo de escalares b1, b2, b3∈ R, o seguinte sistema:
2x1+ 3x2+ 2x3 = b1 x1+ 2x2+ 2x3 = b2 −2x1− 2x2 = b3
admite uma solução (S 6= ∅). Assim, vemos que para qualquer vetor b = (b1, b2, b3) ∈ R3 existem
escalares x1, x2, x3∈ R tais que:
x1· v1+ x2· v2+ x3· v3 = b.
Segue que qualquer vetor de R3 é combinação linear de v1, v2, v3, ou seja Cob{v1, v2, v3} = R3.
Aqui podemos argumentar de outra maneira, assim: os vetores v1 = 2, 1, −2, v2 = 3, 2, −2 e
v3= 2, 2, 0 sendo linearmente independentes, Cob{v1, v2, v3} tem dimensão 3, sendo um
subes-paço de R3, conclua-se que Cob{v1, v2, v3} = R3.
d) Vimos que os vetores v1 := 2, 1, −2, v2 := −2, −1, 2 e v3 := 4, 2, −4 são colineares entre
deles, pois temos por exemplo:
logo parece lógico que eles cobram só uma reta em R3, e que temos as seguinte igualdades de subconjuntos em R3:
Cob{v1, v2, v3} = Cob{v1, v2} = Cob{v2, v3} = Cob{v3, v1} = Cob{v1} = Cob{v2} = Cob{v3}
= {(b1, b2, b3) ∈ R3 | (b1, b2, b3) = λ · v1, onde λ ∈ R}
= {(b1, b2, b3) ∈ R3 | (b1, b2, b3) = 2λ, λ, −2λ , onde λ ∈ R}
Para justificar isto de maneira rigorosa: consideremos b = (b1, b2, b3) ∈ Cob{v1, v2, v3}, isso é, uma
combinação linear de v1, v2 e v3, então, por definição, b é da forma:
b = x1· v1+ x2· v2+ x3· v3.
onde x1, x2, x3 ∈ R são escalares. Usando as relações v2= −v1 e v3 = 2v1 obtemos:
b = x1· v1+ x2· v2+ x3· v3,
= x1· v1− x2· v1− 2x3· v1,
= (x1− x2+ 2x3) · v1.
Logo b é da forma b = λv1 onde λ = x1− x2+ 2x3 ∈ R, isso é b ∈ Cob{v1}. Segue que:
Cob{v1, v2, v3} ⊂ Cob{v1}.
A inlusão inversa Cob{v1} ⊂ Cob{v1, v2, v3} sendo evidente, concluamos que
Cob{v1, v2, v3} = {(b1, b2, b3) ∈ R3 | (b1, b2, b3) = 2λ, λ, −2λ , onde λ ∈ R} = Cob{v1}
e) É claro que dois vetores v1 := 1, 1, 3 e v2 := 0, 2, 1 so não podem gerar o R3 inteiro. Alem
disso, v1 e v2 sendo linearmente independentes, é claro também que Cob{v1, v2} é um plano em
R3 pois tem dimensão 2. Para descrever esse espaço, olhemos pela definição:
Cob{v1, v2} = {(b1, b2, b3) ∈ R3 | (b1, b2, b3) = x1· v1+ x2v2, onde x1, x2∈ R}
= {(b1, b2, b3) ∈ R3 | (b1, b2, b3) = (x1, x1+ 2x2, 3x1+ x2) onde x1, x2∈ R}.
Agora, a descrição de Cob{v1, v2} acima não é muito satisfatória, pois dado um vetor (b1, b2, b3) ∈
R3, ela não deixa claro se b pertence em Cob{v1, v2} ou não.
Mais satisfatória é a seguinte descrição: para determinar Cob{v1, v2}, temos que encontrar todos
os vetores (b1, b2, b3) ∈ R3 tal que o seguinte sistema:
x1 = b1 x1+ 2x2= b2 3x1+ x2= b3
seja consistente. Efetuando as operações em linhas (L3→ L3− 3L1 =: L03) e (L2→ L2− L1 =: L02),
pois (L02 → L02− 2L03) obtemos o seguinte systema equivalente: x1 = b1 x1+ 2x2 = b2 3x1+ x2 = b3 ⇐⇒ x1 = b1 + 0 = b1+ b2− 2b3 x2 = −3b1 + b3.
Portanto, o sistema admite uma solução se e somente se b1+ b2− 2b3 = 0. Segue que:
Cob{v1, v2} = {(b1, b2, b3) ∈ R3 | b1+ b2− 2b3 = 0}
que determine um plano em R3, como expectado.
Correção do Exercício 4: Determine se os seguintes vetores são linearmente independentes em R2×2:
a) Aplicando a definição, os vetores v1 :=1 0 1 1
e v2 :=0 1 0 0
são linearmente independentes se e somente se para escalares x1, x2∈ R, temos a seguinte implicação:
x1· v1+ x2· v2= 0M2(R) =⇒ x1 = x2= 0.
Calculemos que a condição x1· v1+ x2· v2= 0M2(R) é equivalente a:
x1· v1+ x2· v2= 0R2 ⇐⇒ x1· 1 0 1 1 + x2· 0 1 0 0 =0 0 0 0 ⇐⇒ x1 0 x1 x1 +0 x2 0 0 =0 0 0 0 ⇐⇒ x1 x2 x1 x1 =0 0 0 0 ⇐⇒ ( x1 = 0 x2= 0.
Logo v1 e v2 são linearmente independentes.
b) Aplicando a definição, os vetores v1 := 1 0 1 1 , v2 := 0 1 0 0 e v3 := 0 0 1 0 são linearmente independentes se e somente se para quaisquer escalares x1, x2, x3∈ R, temos a seguinte implicação:
Calculemos que a condição x1· v1+ x2· v2+ x3· v3 = 0M2(R) é equivalente a: x1· v1+ x2· v2 = 0R2 ⇐⇒ x1· 1 0 1 1 + x2· 0 1 0 0 + x3· 0 0 1 0 =0 0 0 0 ⇐⇒ x1 0 x1 x1 +0 x2 0 0 + 0 0 x3 0 =0 0 0 0 ⇐⇒ x1 x2 x1+ x3 x1 =0 0 0 0 ⇐⇒ x1 = 0 x2 = 0 x1 + x3 = 0. ⇐⇒ x1 = 0 x2 = 0 x3 = 0.
Portanto v1, v2 e v3 são linearmente independentes.
c) Os vetores v1 :=1 0 0 1 , v2 := 0 1 0 0 e v3 :=2 3 0 2
não são linearmente independentes pois satifazem a seguinte relação não trivial:
2v1+ 3v2− v3= 0M2(R).
Correção do Exercício 5:
a) Se adicionarmos um vetor xn+1 à coleção, tem que discernir dois casos:
• se xn+1 ∈ Cob{x1, . . . , xn} então a coleção {x1, . . . , xn, xn+1} não fica linearmente
indepen-dente. De fato, neste caso, xn é da forma xn+1 = λ1x1+ · · · + λnxn, onde λ1, . . . λn ∈ R
são escalares. Segue que x1, . . . , xn, xn+1 não são linearmente independentes pois satisfazem
a seguinte relação:
λ1x1+ · · · + λnxn+ λn+1xn+1= 0V,
onde λn+1= −1. Note que a relação acima não é trivial pois λn+1= −1 6= 0.
• se xn+1 ∈ Cob{x/ 1, · · · , xn} então a coleção {x1, · · · , xn, xn+1} fica linearmente independente.
De fato, sejam escalares λ1, . . . , λn∈ R tais que λ1x1+ · · · + λnxn+ λn+1xn+1 = 0V. Então
necessariamente λn+1 = 0, pois caso contrario teríamos: xn+1 = λ1 λn+1 x1+ · · · + λn λn+1 xn ⇒ xn+1∈ Cob{x1, . . . , xn},
o que é contrario a nossa hipótese. Segue de λn+1= 0 que: λ1x1+ · · · + λnxn= 0V,
b) Se eliminarmos um vetor, por exemplo x1, a coleção {x2, · · · , xn} fica linearmente independente.
De fato sejam escalares λ2, . . . , λn∈ R tais que λ2x2+ · · · + λnxn= 0V. Em particular, temos:
λ1x1+ · · · + λnxn= 0V,
onde λ1 = 0. Os vetores x1, . . . , xn sendo linearmente independentes, isto implica que λ1 = · · · =
λn= 0. Em particular λ2 = · · · = λn= 0. Portanto x2, . . . , xn são linearmente independentes.
Correção do Exercício 6: Sejam λ1, λ2, λ3 ∈ R escalares tais que λ1· y1 + λ2· y2+ λ3· y3 = 0V.
Então, usando as igualdades obtemos:
λ1· y1+ λ2· y2+ λ3· y3 = 0V ⇐⇒ λ1· (x1+ x2) + λ2· (x2+ x3) + λ3· (x3+ x1) = 0V
⇐⇒ (λ3+ λ1) · x1+ (λ1+ λ2) · x2+ (λ2+ λ3) · x3= 0V.
Os vetores x1, x2, x3 sendo linearmente independentes, esta relação implica que λ1, λ2, λ3 satisfazem o
seguinte sistema: λ3+ λ1 = 0, λ1+ λ2 = 0, λ2+ λ3 = 0.
Reolvendo o sistema obtemos que λ1 = λ2 = λ3 = 0. Portanto y1, y2, y3 são linearmente
independen-tes.
Correção do Exercício 7: Sejam λ1, λ2, λ3 ∈ R escalares tais que λ1· y1 + λ2· y2+ λ3· y3 = 0V.
Então, usando as igualdades obtemos:
λ1· y1+ λ2· y2+ λ3· y3 = 0V ⇐⇒ λ1· (x2− x1) + λ2· (x2+ x1+ x3) + λ3· (x3+ 2x1) = 0V
⇐⇒ (−λ1+ λ2+ 2λ3) · x1+ (λ1+ λ2) · x2+ (λ2+ λ3) · x3 = 0V.
Os vetores x1, x2, x3 sendo linearmente independentes, esta relação implica que λ1, λ2, λ3 satisfazem o
seguinte sistema: −λ1+ λ2+ 2λ3= 0, λ1+ λ2= 0, λ2+ λ3= 0.
Resolvendo o sistema obtemos por exemplo que (λ1, λ2, λ3) = (1, −1, 1) é solução não trivial. Portanto
y1, y2, y3 satisfazem a seguinte relação não trivial:
y1− y2+ y3= 0, logo não são linearmente independentes.
Observação. A relação y1 − y2 + y3 = 0 era também fácil encontrar por inspeção. Pode observar também que o resultado não depende do fato quex1, x2, x3 sejam linearmente independentes.
a) Os vetores 1, x2 e x2 − 1 em P3 não são linearmente independentes pois satisfazem a seguinte
relação não trivial:
1 − x2+ (x2− 1) = 0.
b) Os vetores 2, x2, x, 2x e 2x + 3 não são linearmente independentes, pois são 4 vetores no P3, que
é um espaço de dimensão 3.
Outra maneira de argumentar é de encontrar uma relação não trivial. Por isso, calculemos que para λ1, λ2, λ3, λ4 ∈ R escalares temos: 2λ1+ λ2x2+ λ3x + λ4(2x + 3) = 0P3 ⇐⇒ λ2x 2(λ 3+ 3λ4)x(2λ1+ 3λ4) = 0P3 ⇐⇒ −λ1+ λ2+ 2λ3 = 0, λ1+ λ2 = 0, λ2+ λ3 = 0.
Resolvendo o sistema obtemos por exemplo que (λ1, λ2, λ3) = (1, −1, 1) é solução não trivial.
Portanto y1, y2, y3 satisfazem a seguinte relação não trivial: y1− y2+ y3= 0, logo não são linearmente independentes.
c) Sejam λ1, λ2∈ R escalares tais que λ1(x + 2) + λ2(x2− 1) = 0P3, temos:
λ1(x + 2) + λ2(x2− 1) = 0P3 ⇐⇒ λ2x 2+ λ 1x + (2λ1− λ2) = 0P3 ⇐⇒ λ2 = 0, λ1 = 0, 2λ1− λ2 = 0.
O sistema tendo conjunto solução S = {(0, 0)}, conclua-se que x + 2 e x2− 1 são linearmente indepen-dentes.
Correção do Exercício 9:
a) O wronskiano vale W (cos πx, sin πx) = π, logo não se anula identicamente em [−1, 1], portanto cos πx, sin πx são linearmente independentes.
b) O wronskiano vale W (x, ex, e2x) = 2(x−1)e3x, logo não se anula identicamente em [−1, 1], portanto x, ex e e2x são linearmente independentes.
c) O wronskiano vale W (x2, ln(1 + x2), 1 + x2) = (1+x−8x23)2, logo não se anula identicamente em [0, 1],
d) Neste caso, o wronskiano vale W (x3, |x3|) = 0, ele se anula identicamente em [−1, 1] e não podemos
determinar se x3, |x3| são linearmente independentes ou não.
Voltando à definição, sejam λ1, λ2∈ R escalares tais que λ1x3+λ2|x3| = 0, avaliando em x ∈ [−1, 0)
e x ∈ (0, −1], obtemos:
(
λ1− λ2 = 0,
λ1+ λ2 = 0.
logo λ1= λ2 = 0, agora pode-se concluir que x3 e |x3| são linearmente independentes em [−1, 1].
Observação. Note que x3 e |x3| são linearmente dependentes em C[0, 1] e em C[−1, 0] !
Correção do Exercício 10: Seja {v1, . . . , vk} um conjunto de vetores em V tais que vk= 0V. Então
v1, . . . , vk satisfazem a relação não trivial:
λ1v1+ · · · + λnvn= 0V,
onde λ1 = λn−1= 0 e λn= 1, portanto são linearmente dependentes.
Correção do Exercício 11: Consideremos {v1, . . . , vk} ⊂ {v1, . . . , vn} um subconjunto de vetores
não vazio, onde {v1, . . . , vn} são linearmente independentes.
Sejam λ1, . . . , λk ∈ R escalares tais que λ1v1+ · · · + λnvk= 0V, então temos:
λ1v1+ · · · + λnvn= 0V,
onde λn+1 = · · · = λn = 0. Os vetores {v1, . . . , vn} sendo linearmente independentes, esta relação
implica que λ1= · · · = λn= 0, em particular λ1= · · · = λk= 0. Portanto {v1, . . . , vk} são linearmente
independentes.
Correção do Exercício 12: Seja A uma matriz m × n, da forma:
A =
a1 · · · an
onde a1, ˙an ∈ Rm são vetores linearmente independentes. Por definição, N (A) = {x ∈ Rn | A · x =
0Rm}, ou seja:
x = (x1, . . . , xn) ∈ N (A) ⇐⇒ A · x = 0Rm
⇐⇒ x1a1+ · · · + xnan= 0Rm
Os vetores a1, . . . , an ∈ Rm sendo linearmente independentes, esta ultima equação implica que x1 =
· · · = xn= 0 logo x = 0V. Segue que N (A) ⊂ {0V}. A inclusão inversa sendo evidente, conclua-se que
N (A) = {0V}.
Observação. É fácil ver que de fato, N (A) = {0V} se e somente se as colunas de A são linearmente
Correção do Exercício 13: Notemos X, Y ∈ M3(R) as matrizes 3 × 3 dadas por: X = x1 x2 x3 Y = y1 y2 y3 .
Note que agora, a hipotese que y1 = A · x1, y2= A · x1, e y3 = A · x3 se escreva simplesmente:
A · X = Y.
Podemos fazer qualquer um dos dois raciocinos que seguem para provar que y1, y3, y3 são linearmente independentes:
• usando determinantes: a matriz A sendo invertível, det A 6= 0, e x1, x2, x3 sendo linearmente
independentes det X 6= 0. Logo:
A · X = Y ⇒ det(A) | {z } 6=0 · det(X) | {z } 6=0 = det Y ⇒ det(Y ) 6= 0.
o que implica que y1, y2, y3 são linearmente independentes.
• usando algebra matricial: sejam λ1, λ2, λ3escalares tais que λ1y1+λ2y2+λ3= 0R3 e notemos
L a matriz linha L = (λ1, λ2, λ3) ∈ M(R)1,3. Então temos:
λ1y1+ λ2y2+ λ3y3 = 0R3 ⇐⇒ Y · L = 0R3.
Os vetores x1, x2, x3 sendo linearmente independentes, a matrix X é invertível, logo:
Y · L = 0R3 ⇐⇒ A · X · L = 0 R3 ⇐⇒ A−1· A · X · L = A−1· 0 R3 ⇐⇒ X · L = 0R3 ⇐⇒ X−1· X−1· L = X−1· 0R3 ⇐⇒ L = 0R3.
Portanto y1, y2, y3 são linearmente independentes.
Observação. É fácil generalizar este resultado a n vetores x1, . . . , xn linearmente independentes no
Rn, e para qualquer matriz A ∈ Mn(R) invertível.