Foquemos a nossa aten¸c˜ao em sistemas de equa¸c˜oes diferenciais da forma
˙x(t) = Ax(t) (3.1)
onde A∈ Mn×n, A = [aij], onde aij ∈ R. Observe-se que a matriz A que define o sistema n˜ao
varia com o tempo. ´
E f´acil verificar que qualquer um destes sistemas admite sempre a solu¸c˜ao nula, i.e., a fun¸c˜ao x(t) ≡ 0 ´e solu¸c˜ao do sistema. Logo o conjunto de solu¸c˜oes deste sistema, S, ´e n˜ao vazio. Queremos saber se existe alguma solu¸c˜ao al´em da nula.
Por analogia com o que foi feito aquando do estudo de equa¸c˜oes diferencias lineares, homog´eneas e de coeficientes constantes, vamos procurar solu¸c˜oes definidas em termos da fun¸c˜ao exponencial. Neste caso, n˜ao podemos esquecer que as solu¸c˜oes do sistema s˜ao fun¸c˜oes vectoriais de vari´avel real.
Compare-se o sistema (3.1) com a equa¸c˜ao diferencial y0(t) = ay(t) onde a
∈ R. Recordemos que esta ´e uma equa¸c˜ao diferencial de vari´aveis separadas e a solu¸c˜ao ´e y(t) = ceat, c ∈ R. Esquecendo por momento que em (3.1) x representa um vector e A uma matriz, as similaridades entre sistema e equa¸c˜ao diferencial apontam para solu¸c˜oes de (3.1) da forma x(t) = ceAt. No
que se segue, veremos que tal conjectura ´e verdadeira.
Analisando o exemplo (4.2.2) somos conduzido `a procura de solu¸c˜oes do sistema da forma u(t) = eλtx
onde λ ´e um escalar e x ´e um vector deRn. Ora u ´e diferente da fun¸c˜ao nula se e s´o se x6= 0 e
u ´e solu¸c˜ao do sistema se a sua derivada satisfizer o sistema, i.e., se d dtu(t) = Au(t), ou seja, se d dtu(t) = λe λtx = λu(t).
Concluimos assim que que u ´e solu¸c˜ao do sistema se Au(t) = λu(t). Tendo em conta que u(t) = eλtx, x dever´a ser tal que
A fun¸c˜ao u(t) = eλtx ´e solu¸c˜ao n˜ao nula do sistema quando λ ´e um escalar para o qual a matriz
A− λI tem pelo menos um vector x n˜ao nulo que pertence ao seu n´ucleo. Como sabemos, qual- quer matriz quadrada cujo n´ucleo cont´em algum elemento al´em do vector nulo, ´e necessariamente uma matriz singular. Assim, λ dever´a ser tal que
det (A− λI) = 0
Lembremos que det (A− λI) ´e uma fun¸c˜ao polinomial em λ. Se u(t) = eλitx
i, para algum
escalar λi e algum vector xi, ´e solu¸c˜ao do sistema, ent˜ao λi ´e uma ra´ız da equa¸c˜ao polinomial
det (A− λI) = 0 e xi um vector n˜ao nulo pertencente ao N (A − λiI), (onde N (B) designa o
n´ucleo de uma matriz qualquer B).
Defini¸c˜ao 4.3.1 Dada uma matriz A∈ Mn×n, as ra´ızes da equa¸c˜ao det (A− λI) = 0 dizem-
se valores pr´oprios da matriz A. Se λi ´e um valor pr´oprio de A, um vector n˜ao nulo xi que
satisfaz a equa¸c˜ao
Axi = λixi
diz-se vector pr´oprio de A associado ao valor pr´oprio λi.
Se x ´e um vector pr´oprio de A associado a um valor pr´oprio λ, ent˜ao qualquer outro vector da forma αx, com α6= 0, ´e ainda um vector pr´oprio associado a λ.
Exerc´ıcio 4.3.2
1. Verifique que det (A− λI) = 0 ´e uma equa¸c˜ao polinomial de grau n em λ.
2. Seja A∈ Mn×n, A = [aij] e {λ1, λ2, . . . , λn}, com λi ∈ R os seus valores pr´oprios (todos
reais). Mostre que
det(A) = λ1· λ2· . . . · λn
Resumindo, a fun¸c˜ao u, definida por u(t) = eλtx ´e solu¸c˜ao do sistema dado se λ ´e um valor
pr´oprio de A e x ´e um vector pr´oprio associado a λ.
Definimos valores pr´oprios de uma matriz como sendo as ra´ızes da equa¸c˜ao det(A− λI) = 0. As ra´ızes desta equa¸c˜ao podem ser n´umeros reais ou complexos. Se λ1 ∈ R ´e valor pr´oprio da
matriz de multiplicidade 1 e se x1 ∈ Rn ´e um vector pr´oprio que lhe est´a associado, ent˜ao a
fun¸c˜ao vectorial de vari´avel real
u(t) = eλ1tx
´e solu¸c˜ao do sistema (3.1).
O que acontece quando as ra´ızes de det(A− λI) = 0 s˜ao n´umeros complexos? Recorde-se que as ra´ızes complexas de uma equa¸c˜ao polinomial de coeficientes reais “vˆem aos pares”, ou seja, se λ + iµ ´e ra´ız, ent˜ao o conjugado λ− iµ tamb´em ´e ra´ız.
Mostra-se que os vectores pr´oprios associados a valores pr´oprios complexos s˜ao vectores com componentes complexas.
Exerc´ıcio 4.3.3 Considere a matriz
A = " 1 −1 1 1 # .
Calcule os valores pr´oprios dessa matriz e verifique que os vectores pr´oprios tˆem componentes complexas.
Seja x = a + ib, onde a, b ∈ Rn, um vector pr´oprio associado a λ + iµ. Verifica-se que ¯x, o
conjugado de x, ´e um vector pr´oprio associado a λ− iµ. Realmente, observando que ¯A = A (a matriz A ´e considerada ter entradas reais, i.e., A = [aij] e aij ∈ R), vem
A¯x = Ax = (λ + iµ)x = (λ− iµ)¯x
Sendo λ + iµ valor pr´oprio de uma matriz A que define o sistema de equa¸c˜oes diferenciais (3.1) e x = a + bi o vector pr´oprio que lhe est´a associado, as fun¸c˜oes
u(t) = e(λ+iµ)t(a + bi) = eλt¡cos(µt) + isen(µt)¢(a + bi) e ¯u(t) satisfazem o sistema. Realmente, derivando u, obtemos
˙u(t) = (λ + iµ)e(λ+iµ)t(a + bi) = (λ + iµ)u(t)
= Au(t). Contudo, esta ´e uma fun¸c˜ao da forma
u :R −→ Cn
Por momentos consideremos que a defini¸c˜ao de conjunto de solu¸c˜oes do sistema permitia que fun¸c˜oes tomando valores em Cn fossem consideradas solu¸c˜oes. Considerando as duas fun¸c˜oes u e ¯u anteriores:
u(t) = e(λ+iµ)t(a + bi) ¯
u(t) = e(λ−iµ)t(a− bi)
e dois escalares α, β ∈ C, define-se uma outra fun¸c˜ao complexa de vari´avel real z(t) = αu(t) + β ¯u(t) que satisfaz tamb´em o sistema de equa¸c˜oes diferenciais pois:
˙z(t) = α(λ + iµ)u(t) + β(λ− iµ)¯u(t) = αAu(t) + βA¯u(t)
= Az(t).
Em particular, para escolha criteriosas de α e β, podemos obter duas fun¸c˜oes (
v(t) = eλt(a· cos(µt) − b · sen(µt))
w(t) = eλt(a· sen(µt) + b · cos(µt)) , (3.2)
ambas combina¸c˜oes lineares de u e ¯u e tais que v(t), w(t)∈ Rn. Logo v e w assim definidas s˜ao
realmente solu¸c˜oes do sistema, de acordo com a defini¸c˜ao de solu¸c˜ao de sistema dada anterior- mente.
Assim, a partir de duas fun¸c˜oes, tomando valores em Cn, e satisfazendo o sistema foi
poss´ıvel obter duas solu¸c˜oes do sistema de equa¸c˜oes diferenciais.
Operadores Diferenciais e Sistemas Lineares
Interessa lembrar que o conjunto C1(R; Rn) das fun¸c˜oes deR em Rn ´e um espa¸co linear sobre o corpo dos reais. Mais ainda, recorde-se que duas fun¸c˜oes x, z ∈ C1(R; Rn) s˜ao linearmente
independentes se e s´o se
αx(t) + βy(t) = 0∀t ∈ R =⇒ α = β = 0
Teorema 4.3.4 Considerem-se n fun¸c˜oes x1, x2, . . . , xn de C1(R; Rn) e seja W a fun¸c˜ao ma-
tricial definida por
W (t) = [x1(t), x2(t), . . . , xn(t)],
ou seja, W (t) ´e uma matriz n× n, cuja coluna i tem como elementos as componentes do vector xi.
Se
det W (t)6= 0 para algum t ∈ R ent˜ao as fun¸c˜oes x1, x2, . . . , xn s˜ao linearmente independentes.
Exerc´ıcio 4.3.5 Demonstre o teorema anterior.
Recorde-se o que foi feito para as equa¸c˜oes diferenciais de coeficientes constantes. Vimos que as solu¸c˜oes das equa¸c˜oes diferenciais poderiam ser vistas como sendo elementos do n´ucleo de ope- radores diferenciais associados `as equa¸c˜oes. Ser´a que ´e poss´ıvel associar operadores diferenciais a sistemas da forma (3.1)? Consideremos
D : C1(R; Rn)−→ C0(R; Rn) definido como
Dx = ˙x
ou seja, D ´e a aplica¸c˜ao que a cada fun¸c˜ao de classe C1 faz corresponder a sua derivada. Esta aplica¸c˜ao ´e linear (verifique!). Analogamente, podemos definir o operador identidade, que designamos por I ou D0, como sendo a transforma¸c˜ao, definida em C0(R, Rn), que a cada fun¸c˜ao
x faz corresponder a pr´opria fun¸c˜ao x. Seja agora L o operador
L : C1(R, Rn)−→ C0(R, Rn) (3.3) tal que
L = D− A · I Para cada x∈ C1(R, Rn) tem-se
Lx = ˙x− Ax.
Assim, x∈ C1(R, Rn) ´e solu¸c˜ao do sistema (3.1), ˙x(t) = Ax(t), se e s´o se, para todo o t∈ R,
Lx(t) = 0.
Quer isto dizer que o conjunto das solu¸c˜oes S do sistema (3.1) ´e igual ao n´ucleo do operador linear L:
N (L) = S (3.4)
A quest˜ao que se levanta agora ´e a de determinar esse mesmo n´ucleo. Antes de dar resposta a tal quest˜ao, vamos introduzir algumas defini¸c˜oes que ser˜ao de utilidade em breve.
Exponencial de Matrizes
Seja x∈ R. Lembrar que a fun¸c˜ao ex pode ser expressa em s´erie de Taylor como sendo
ex= 1 + x + x 2 2! + . . . + xn n! + . . . = ∞ X n=0 xn n!
Defini¸c˜ao 4.3.6 Seja A∈ Mn×n . Define-se
exp(A) = eA= I + A + A 2 2! + . . . + An n! + . . . = ∞ X n=0 An n!.
exp(A) ´e uma s´erie de matrizes e a sua “soma”, se exitir, ´e uma matriz de Mn×n. Cada
entrada da ”soma” exp(A) ´e definida como uma s´erie de potˆencias. Se cada uma dessas s´eries for convergente, a s´erie de matrizes diz-se convergente. Analogamente:
Defini¸c˜ao 4.3.7 Seja A∈ Mn×n e t∈ R. Define-se
exp(At) = eAt= I + A + (At) 2 2! + . . . + (At)n n! + . . . = ∞ X n=0 (At)n n! = ∞ X n=0 Antn n!
As entradas da matriz ”soma” exp(At) s˜ao agora s´eries de fun¸c˜oes e n˜ao s´eries num´ericas como anteriormente. Note-se que a fun¸c˜ao matricial exp(At) tem n× n entradas, cada uma delas representando a “soma” de uma s´erie de fun¸c˜oes. Se estas n× n s´eries funcionais foram todas convergentes, ent˜ao a s´erie eAt diz-se convergente. Como eAt ´e uma matriz, a fun¸c˜ao g(t) = eAt
´e uma fun¸c˜ao matricial de vari´avel real.
Mostra-se que a s´erie que representa a fun¸c˜ao matricial eAt ´e convergente qualquer que seja A.
Verifica-se ainda que:
A1: A matriz eAt ´e sempre n˜ao singular. A2: eAteAs= eA(t+s).
A3: eAte−At= I.
A4: d dte
At = AeAt.
Solu¸c˜ao do Sistema de Equa¸c˜oes Diferenciais.
A introdu¸c˜ao do conceito de exponencial de matrizes permite-nos agora demonstrar o seguinte teorema:
Teorema 4.3.9 Considere o sistema ˙x(t) = Ax(t) onde A ´e uma matriz quadrada, n× n, com entradas reais. Considere-se tamb´em a condi¸c˜ao inicial x(t0) = x0, onde t0 ∈ R e x0 ∈ Rn.
Existe uma e uma s´o solu¸c˜ao do problema do valor inicial ˙x(t) = Ax(t) x(t0) = x0
e essa solu¸c˜ao ´e uma fun¸c˜ao vectorial da forma
x(t) = eA(t−t0)x
0
Demonstra¸c˜ao. Para simplificar a nota¸c˜ao, consideramos t0 = 0. A partir deste caso o
resultado pode ser demonstrado para qualquer t0 ∈ R muito facilmente. Os detalhes ficam ao
cuidado do aluno.
Comecemos por provar que a fun¸c˜ao dada ´e solu¸c˜ao do problema do valor inicial. Como x(0) = eA·0x0= x0,
esta fun¸c˜ao satisfaz a condi¸c˜ao inicial. Por outro lado, derivando x vem ˙x(t) = AeAtx0= Ax(t)
e concluimos que x(t) = eAtx
0 ´e solu¸c˜ao do sistema. Fica assim demonstrada que existe uma
solu¸c˜ao e que ela ´e da forma dada.
Pretendemos agora mostrar que a solu¸c˜ao ´e ´unica. Vamos faze-lo por contradi¸c˜ao. Suponhamos ent˜ao que existe uma outra solu¸c˜ao ˜x 6= x tal que ˜x(0) = x0 e que ´e solu¸c˜ao da equa¸c˜ao
diferencial. Definimos
δ(t) = e−At[x(t)− ˜x(t)] Observe que se tem
δ(0) = 0 e que
˙δ(t) = −Aδ(t) + e−At[Ax(t)− A˜x(t)]
= −Aδ(t) + Ae−At[x(t)− ˜x(t)]
= −Aδ(t) + Aδ(t) = 0,
ou seja, δ ´e uma fun¸c˜ao com derivada nula e ´e zero em t = 0. Logo
δ(t)≡ 0,
o que ´e o mesmo que dizer que x(t) = ˜x(t) para todo o t∈ R. Isto contradiz o facto de ˜x ser diferente de x. Logo a solu¸c˜ao ´e ´unica.
Observe-se que, n˜ao especificando a condi¸c˜ao inicial, a solu¸c˜ao geral do sistema pode ser escrita na forma
x(t) = eAtc, onde c∈ Rn.
Recorde-se a defini¸c˜ao (3.3) do operador L associado ao sistema (3.1). O conjunto das solu¸c˜ao do sistema S coincide com o n´ucleo o operador L (ver (3.4)). Seja x0 ∈ R qualquer. Deduz-se
do teorema anterior que
S = N (L) =©x ∈ C1(R; Rn): x(t) = eAtc , c
∈ Rnª . Quest˜ao: Qual a dimens˜ao do subespa¸co linearN (L)?
Consideremos a matriz eAt e designemos os seus vectores coluna por u
i(t), ou seja,
eAt= [u1(t)|u2(t)| . . . |un(t)]
onde ui :R −→ Rn. Como eAt ´e uma matriz n˜ao singular∀t ∈ R, ent˜ao os vectores ui(t) s˜ao
linearmente independentes para todo o t ∈ R. Quer isto dizer que as fun¸c˜oes ui s˜ao fun¸c˜oes
linearmente independentes. Segue que, sendo c∈ Rn qualquer, a solu¸c˜ao geral do sistema pode
ser escrita como
x(t) = eAtc =
n
X
i=1
ui(t)ci,
ou seja, ´e combina¸c˜ao linear de n fun¸c˜oes ui linearmente independentes. Ora tal significa que
N (L) ´e um subespa¸co gerado pelo conjunto {u1, u2, . . . , un}, conjunto esse com dimens˜ao n.
Acab´amos de demonstrar o seguinte resultado:
Teorema 4.3.10 Seja L um operador diferencial de C1(R; Rn) em C0(R; Rn) definido por L =
D− AI. Ent˜ao
Exerc´ıcio 4.3.11 1. Considere a equa¸c˜ao diferencial
y(n)+ an−1y(n−1)+ . . . + a1y0+ a0(t)y = 0 (3.5)
e seja K o operador diferencial que lhe est´a associado. Mostre que dim N (K) = n.
Observe-se que fica assim demonstrado o Teorema 3.2.3 do cap´ıtulo anterior quando os coeficientes da equa¸c˜ao diferencial s˜ao constantes.
2. Considere-se o sistema definido pela matriz
A = "
λ µ −µ λ
#
• Mostre que matriz tem dois valores pr´oprios complexos, a saber, λ + iµ e λ − iµ. • Verifique que o vector
u = à 1 0 ! + i à 0 1 !
´e vector pr´oprio associado a λ + iµ. O seu conjugado
¯ u = à 1 0 ! − i à 0 1 !
´e portanto o vector pr´oprio associado a λ− iµ. Recorrendo a (3.2) conclua que
v(t) = eλtcos(µt) Ã 1 0 ! − eλtsen(µt) Ã 0 1 ! w(t) = eλtsen(µt) Ã 1 0 ! + eλtcos(µt) Ã 0 1 !
s˜ao ambas solu¸c˜oes do sistema.
• Mostre que v e w s˜ao realmente solu¸c˜oes do sistemas e que s˜ao fun¸c˜oes linearmente independentes.
• Finalmente calcule
x(t) = eAtc para um qualquer c = (c1, c2)∈ R2 e verifique que
Suponhamos agora que temos n solu¸c˜oes xi(·) do sistema
˙x = Ax
que satisfazem n condi¸c˜oes iniciais
xi(0) = xi0 onde os vectores x10, x20, . . . , xn
0 s˜ao vectores linearmente independentes. Temos assim n solu¸c˜oes
do sistema da forma
xi(t) = eAtxi0
Considere-se a matriz W (t) cujos vectores coluna s˜ao xi(t). Ent˜ao
W (t) =£x1(t)|x2(t)| . . . |xn(t)¤ = eAt£x1
0|x20| . . . |xn0
¤
W ´e uma matriz como a descrita no teorema 4.3.4 e ´e o produto de duas matrizes n˜ao singulares. Logo det W (t) 6= 0. Este determinante diz-se o Wronskiano e W (t) ´e a matriz Wronskiana. Concluimos assim que as fun¸c˜oes xi(·) s˜ao linearmente independentes, ou seja:
n condi¸c˜oes iniciais dadas por vectores linearmente independentes geram n solu¸c˜oes do sistema linearmente independentes.
Exerc´ıcio 4.3.12 Verifique que qualquer solu¸c˜ao do sistema pode escrever-se como combina¸c˜ao linear das n fun¸c˜oes descritas em cima.