• Nenhum resultado encontrado

Foquemos a nossa aten¸c˜ao em sistemas de equa¸c˜oes diferenciais da forma

˙x(t) = Ax(t) (3.1)

onde A∈ Mn×n, A = [aij], onde aij ∈ R. Observe-se que a matriz A que define o sistema n˜ao

varia com o tempo. ´

E f´acil verificar que qualquer um destes sistemas admite sempre a solu¸c˜ao nula, i.e., a fun¸c˜ao x(t) ≡ 0 ´e solu¸c˜ao do sistema. Logo o conjunto de solu¸c˜oes deste sistema, S, ´e n˜ao vazio. Queremos saber se existe alguma solu¸c˜ao al´em da nula.

Por analogia com o que foi feito aquando do estudo de equa¸c˜oes diferencias lineares, homog´eneas e de coeficientes constantes, vamos procurar solu¸c˜oes definidas em termos da fun¸c˜ao exponencial. Neste caso, n˜ao podemos esquecer que as solu¸c˜oes do sistema s˜ao fun¸c˜oes vectoriais de vari´avel real.

Compare-se o sistema (3.1) com a equa¸c˜ao diferencial y0(t) = ay(t) onde a

∈ R. Recordemos que esta ´e uma equa¸c˜ao diferencial de vari´aveis separadas e a solu¸c˜ao ´e y(t) = ceat, c ∈ R. Esquecendo por momento que em (3.1) x representa um vector e A uma matriz, as similaridades entre sistema e equa¸c˜ao diferencial apontam para solu¸c˜oes de (3.1) da forma x(t) = ceAt. No

que se segue, veremos que tal conjectura ´e verdadeira.

Analisando o exemplo (4.2.2) somos conduzido `a procura de solu¸c˜oes do sistema da forma u(t) = eλtx

onde λ ´e um escalar e x ´e um vector deRn. Ora u ´e diferente da fun¸c˜ao nula se e s´o se x6= 0 e

u ´e solu¸c˜ao do sistema se a sua derivada satisfizer o sistema, i.e., se d dtu(t) = Au(t), ou seja, se d dtu(t) = λe λtx = λu(t).

Concluimos assim que que u ´e solu¸c˜ao do sistema se Au(t) = λu(t). Tendo em conta que u(t) = eλtx, x dever´a ser tal que

A fun¸c˜ao u(t) = eλtx ´e solu¸c˜ao n˜ao nula do sistema quando λ ´e um escalar para o qual a matriz

A− λI tem pelo menos um vector x n˜ao nulo que pertence ao seu n´ucleo. Como sabemos, qual- quer matriz quadrada cujo n´ucleo cont´em algum elemento al´em do vector nulo, ´e necessariamente uma matriz singular. Assim, λ dever´a ser tal que

det (A− λI) = 0

Lembremos que det (A− λI) ´e uma fun¸c˜ao polinomial em λ. Se u(t) = eλitx

i, para algum

escalar λi e algum vector xi, ´e solu¸c˜ao do sistema, ent˜ao λi ´e uma ra´ız da equa¸c˜ao polinomial

det (A− λI) = 0 e xi um vector n˜ao nulo pertencente ao N (A − λiI), (onde N (B) designa o

n´ucleo de uma matriz qualquer B).

Defini¸c˜ao 4.3.1 Dada uma matriz A∈ Mn×n, as ra´ızes da equa¸c˜ao det (A− λI) = 0 dizem-

se valores pr´oprios da matriz A. Se λi ´e um valor pr´oprio de A, um vector n˜ao nulo xi que

satisfaz a equa¸c˜ao

Axi = λixi

diz-se vector pr´oprio de A associado ao valor pr´oprio λi.

Se x ´e um vector pr´oprio de A associado a um valor pr´oprio λ, ent˜ao qualquer outro vector da forma αx, com α6= 0, ´e ainda um vector pr´oprio associado a λ.

Exerc´ıcio 4.3.2

1. Verifique que det (A− λI) = 0 ´e uma equa¸c˜ao polinomial de grau n em λ.

2. Seja A∈ Mn×n, A = [aij] e {λ1, λ2, . . . , λn}, com λi ∈ R os seus valores pr´oprios (todos

reais). Mostre que

det(A) = λ1· λ2· . . . · λn

Resumindo, a fun¸c˜ao u, definida por u(t) = eλtx ´e solu¸c˜ao do sistema dado se λ ´e um valor

pr´oprio de A e x ´e um vector pr´oprio associado a λ.

Definimos valores pr´oprios de uma matriz como sendo as ra´ızes da equa¸c˜ao det(A− λI) = 0. As ra´ızes desta equa¸c˜ao podem ser n´umeros reais ou complexos. Se λ1 ∈ R ´e valor pr´oprio da

matriz de multiplicidade 1 e se x1 ∈ Rn ´e um vector pr´oprio que lhe est´a associado, ent˜ao a

fun¸c˜ao vectorial de vari´avel real

u(t) = eλ1tx

´e solu¸c˜ao do sistema (3.1).

O que acontece quando as ra´ızes de det(A− λI) = 0 s˜ao n´umeros complexos? Recorde-se que as ra´ızes complexas de uma equa¸c˜ao polinomial de coeficientes reais “vˆem aos pares”, ou seja, se λ + iµ ´e ra´ız, ent˜ao o conjugado λ− iµ tamb´em ´e ra´ız.

Mostra-se que os vectores pr´oprios associados a valores pr´oprios complexos s˜ao vectores com componentes complexas.

Exerc´ıcio 4.3.3 Considere a matriz

A = " 1 −1 1 1 # .

Calcule os valores pr´oprios dessa matriz e verifique que os vectores pr´oprios tˆem componentes complexas.

Seja x = a + ib, onde a, b ∈ Rn, um vector pr´oprio associado a λ + iµ. Verifica-se que ¯x, o

conjugado de x, ´e um vector pr´oprio associado a λ− iµ. Realmente, observando que ¯A = A (a matriz A ´e considerada ter entradas reais, i.e., A = [aij] e aij ∈ R), vem

A¯x = Ax = (λ + iµ)x = (λ− iµ)¯x

Sendo λ + iµ valor pr´oprio de uma matriz A que define o sistema de equa¸c˜oes diferenciais (3.1) e x = a + bi o vector pr´oprio que lhe est´a associado, as fun¸c˜oes

u(t) = e(λ+iµ)t(a + bi) = eλt¡cos(µt) + isen(µt)¢(a + bi) e ¯u(t) satisfazem o sistema. Realmente, derivando u, obtemos

˙u(t) = (λ + iµ)e(λ+iµ)t(a + bi) = (λ + iµ)u(t)

= Au(t). Contudo, esta ´e uma fun¸c˜ao da forma

u :R −→ Cn

Por momentos consideremos que a defini¸c˜ao de conjunto de solu¸c˜oes do sistema permitia que fun¸c˜oes tomando valores em Cn fossem consideradas solu¸c˜oes. Considerando as duas fun¸c˜oes u e ¯u anteriores:

u(t) = e(λ+iµ)t(a + bi) ¯

u(t) = e(λ−iµ)t(a− bi)

e dois escalares α, β ∈ C, define-se uma outra fun¸c˜ao complexa de vari´avel real z(t) = αu(t) + β ¯u(t) que satisfaz tamb´em o sistema de equa¸c˜oes diferenciais pois:

˙z(t) = α(λ + iµ)u(t) + β(λ− iµ)¯u(t) = αAu(t) + βA¯u(t)

= Az(t).

Em particular, para escolha criteriosas de α e β, podemos obter duas fun¸c˜oes (

v(t) = eλt(a· cos(µt) − b · sen(µt))

w(t) = eλt(a· sen(µt) + b · cos(µt)) , (3.2)

ambas combina¸c˜oes lineares de u e ¯u e tais que v(t), w(t)∈ Rn. Logo v e w assim definidas s˜ao

realmente solu¸c˜oes do sistema, de acordo com a defini¸c˜ao de solu¸c˜ao de sistema dada anterior- mente.

Assim, a partir de duas fun¸c˜oes, tomando valores em Cn, e satisfazendo o sistema foi

poss´ıvel obter duas solu¸c˜oes do sistema de equa¸c˜oes diferenciais.

Operadores Diferenciais e Sistemas Lineares

Interessa lembrar que o conjunto C1(R; Rn) das fun¸c˜oes deR em Rn ´e um espa¸co linear sobre o corpo dos reais. Mais ainda, recorde-se que duas fun¸c˜oes x, z ∈ C1(R; Rn) s˜ao linearmente

independentes se e s´o se

αx(t) + βy(t) = 0∀t ∈ R =⇒ α = β = 0

Teorema 4.3.4 Considerem-se n fun¸c˜oes x1, x2, . . . , xn de C1(R; Rn) e seja W a fun¸c˜ao ma-

tricial definida por

W (t) = [x1(t), x2(t), . . . , xn(t)],

ou seja, W (t) ´e uma matriz n× n, cuja coluna i tem como elementos as componentes do vector xi.

Se

det W (t)6= 0 para algum t ∈ R ent˜ao as fun¸c˜oes x1, x2, . . . , xn s˜ao linearmente independentes.

Exerc´ıcio 4.3.5 Demonstre o teorema anterior.

Recorde-se o que foi feito para as equa¸c˜oes diferenciais de coeficientes constantes. Vimos que as solu¸c˜oes das equa¸c˜oes diferenciais poderiam ser vistas como sendo elementos do n´ucleo de ope- radores diferenciais associados `as equa¸c˜oes. Ser´a que ´e poss´ıvel associar operadores diferenciais a sistemas da forma (3.1)? Consideremos

D : C1(R; Rn)−→ C0(R; Rn) definido como

Dx = ˙x

ou seja, D ´e a aplica¸c˜ao que a cada fun¸c˜ao de classe C1 faz corresponder a sua derivada. Esta aplica¸c˜ao ´e linear (verifique!). Analogamente, podemos definir o operador identidade, que designamos por I ou D0, como sendo a transforma¸c˜ao, definida em C0(R, Rn), que a cada fun¸c˜ao

x faz corresponder a pr´opria fun¸c˜ao x. Seja agora L o operador

L : C1(R, Rn)−→ C0(R, Rn) (3.3) tal que

L = D− A · I Para cada x∈ C1(R, Rn) tem-se

Lx = ˙x− Ax.

Assim, x∈ C1(R, Rn) ´e solu¸c˜ao do sistema (3.1), ˙x(t) = Ax(t), se e s´o se, para todo o t∈ R,

Lx(t) = 0.

Quer isto dizer que o conjunto das solu¸c˜oes S do sistema (3.1) ´e igual ao n´ucleo do operador linear L:

N (L) = S (3.4)

A quest˜ao que se levanta agora ´e a de determinar esse mesmo n´ucleo. Antes de dar resposta a tal quest˜ao, vamos introduzir algumas defini¸c˜oes que ser˜ao de utilidade em breve.

Exponencial de Matrizes

Seja x∈ R. Lembrar que a fun¸c˜ao ex pode ser expressa em s´erie de Taylor como sendo

ex= 1 + x + x 2 2! + . . . + xn n! + . . . = ∞ X n=0 xn n!

Defini¸c˜ao 4.3.6 Seja A∈ Mn×n . Define-se

exp(A) = eA= I + A + A 2 2! + . . . + An n! + . . . = ∞ X n=0 An n!.

exp(A) ´e uma s´erie de matrizes e a sua “soma”, se exitir, ´e uma matriz de Mn×n. Cada

entrada da ”soma” exp(A) ´e definida como uma s´erie de potˆencias. Se cada uma dessas s´eries for convergente, a s´erie de matrizes diz-se convergente. Analogamente:

Defini¸c˜ao 4.3.7 Seja A∈ Mn×n e t∈ R. Define-se

exp(At) = eAt= I + A + (At) 2 2! + . . . + (At)n n! + . . . = ∞ X n=0 (At)n n! = ∞ X n=0 Antn n!

As entradas da matriz ”soma” exp(At) s˜ao agora s´eries de fun¸c˜oes e n˜ao s´eries num´ericas como anteriormente. Note-se que a fun¸c˜ao matricial exp(At) tem n× n entradas, cada uma delas representando a “soma” de uma s´erie de fun¸c˜oes. Se estas n× n s´eries funcionais foram todas convergentes, ent˜ao a s´erie eAt diz-se convergente. Como eAt ´e uma matriz, a fun¸c˜ao g(t) = eAt

´e uma fun¸c˜ao matricial de vari´avel real.

Mostra-se que a s´erie que representa a fun¸c˜ao matricial eAt ´e convergente qualquer que seja A.

Verifica-se ainda que:

A1: A matriz eAt ´e sempre n˜ao singular. A2: eAteAs= eA(t+s).

A3: eAte−At= I.

A4: d dte

At = AeAt.

Solu¸c˜ao do Sistema de Equa¸c˜oes Diferenciais.

A introdu¸c˜ao do conceito de exponencial de matrizes permite-nos agora demonstrar o seguinte teorema:

Teorema 4.3.9 Considere o sistema ˙x(t) = Ax(t) onde A ´e uma matriz quadrada, n× n, com entradas reais. Considere-se tamb´em a condi¸c˜ao inicial x(t0) = x0, onde t0 ∈ R e x0 ∈ Rn.

Existe uma e uma s´o solu¸c˜ao do problema do valor inicial ˙x(t) = Ax(t) x(t0) = x0

e essa solu¸c˜ao ´e uma fun¸c˜ao vectorial da forma

x(t) = eA(t−t0)x

0

Demonstra¸c˜ao. Para simplificar a nota¸c˜ao, consideramos t0 = 0. A partir deste caso o

resultado pode ser demonstrado para qualquer t0 ∈ R muito facilmente. Os detalhes ficam ao

cuidado do aluno.

Comecemos por provar que a fun¸c˜ao dada ´e solu¸c˜ao do problema do valor inicial. Como x(0) = eA·0x0= x0,

esta fun¸c˜ao satisfaz a condi¸c˜ao inicial. Por outro lado, derivando x vem ˙x(t) = AeAtx0= Ax(t)

e concluimos que x(t) = eAtx

0 ´e solu¸c˜ao do sistema. Fica assim demonstrada que existe uma

solu¸c˜ao e que ela ´e da forma dada.

Pretendemos agora mostrar que a solu¸c˜ao ´e ´unica. Vamos faze-lo por contradi¸c˜ao. Suponhamos ent˜ao que existe uma outra solu¸c˜ao ˜x 6= x tal que ˜x(0) = x0 e que ´e solu¸c˜ao da equa¸c˜ao

diferencial. Definimos

δ(t) = e−At[x(t)− ˜x(t)] Observe que se tem

δ(0) = 0 e que

˙δ(t) = −Aδ(t) + e−At[Ax(t)− A˜x(t)]

= −Aδ(t) + Ae−At[x(t)− ˜x(t)]

= −Aδ(t) + Aδ(t) = 0,

ou seja, δ ´e uma fun¸c˜ao com derivada nula e ´e zero em t = 0. Logo

δ(t)≡ 0,

o que ´e o mesmo que dizer que x(t) = ˜x(t) para todo o t∈ R. Isto contradiz o facto de ˜x ser diferente de x. Logo a solu¸c˜ao ´e ´unica.

Observe-se que, n˜ao especificando a condi¸c˜ao inicial, a solu¸c˜ao geral do sistema pode ser escrita na forma

x(t) = eAtc, onde c∈ Rn.

Recorde-se a defini¸c˜ao (3.3) do operador L associado ao sistema (3.1). O conjunto das solu¸c˜ao do sistema S coincide com o n´ucleo o operador L (ver (3.4)). Seja x0 ∈ R qualquer. Deduz-se

do teorema anterior que

S = N (L) =©x ∈ C1(R; Rn): x(t) = eAtc , c

∈ Rnª . Quest˜ao: Qual a dimens˜ao do subespa¸co linearN (L)?

Consideremos a matriz eAt e designemos os seus vectores coluna por u

i(t), ou seja,

eAt= [u1(t)|u2(t)| . . . |un(t)]

onde ui :R −→ Rn. Como eAt ´e uma matriz n˜ao singular∀t ∈ R, ent˜ao os vectores ui(t) s˜ao

linearmente independentes para todo o t ∈ R. Quer isto dizer que as fun¸c˜oes ui s˜ao fun¸c˜oes

linearmente independentes. Segue que, sendo c∈ Rn qualquer, a solu¸c˜ao geral do sistema pode

ser escrita como

x(t) = eAtc =

n

X

i=1

ui(t)ci,

ou seja, ´e combina¸c˜ao linear de n fun¸c˜oes ui linearmente independentes. Ora tal significa que

N (L) ´e um subespa¸co gerado pelo conjunto {u1, u2, . . . , un}, conjunto esse com dimens˜ao n.

Acab´amos de demonstrar o seguinte resultado:

Teorema 4.3.10 Seja L um operador diferencial de C1(R; Rn) em C0(R; Rn) definido por L =

D− AI. Ent˜ao

Exerc´ıcio 4.3.11 1. Considere a equa¸c˜ao diferencial

y(n)+ an−1y(n−1)+ . . . + a1y0+ a0(t)y = 0 (3.5)

e seja K o operador diferencial que lhe est´a associado. Mostre que dim N (K) = n.

Observe-se que fica assim demonstrado o Teorema 3.2.3 do cap´ıtulo anterior quando os coeficientes da equa¸c˜ao diferencial s˜ao constantes.

2. Considere-se o sistema definido pela matriz

A = "

λ µ −µ λ

#

• Mostre que matriz tem dois valores pr´oprios complexos, a saber, λ + iµ e λ − iµ. • Verifique que o vector

u = à 1 0 ! + i à 0 1 !

´e vector pr´oprio associado a λ + iµ. O seu conjugado

¯ u = à 1 0 ! − i à 0 1 !

´e portanto o vector pr´oprio associado a λ− iµ. Recorrendo a (3.2) conclua que

v(t) = eλtcos(µt) Ã 1 0 ! − eλtsen(µt) Ã 0 1 ! w(t) = eλtsen(µt) Ã 1 0 ! + eλtcos(µt) Ã 0 1 !

s˜ao ambas solu¸c˜oes do sistema.

• Mostre que v e w s˜ao realmente solu¸c˜oes do sistemas e que s˜ao fun¸c˜oes linearmente independentes.

• Finalmente calcule

x(t) = eAtc para um qualquer c = (c1, c2)∈ R2 e verifique que

Suponhamos agora que temos n solu¸c˜oes xi(·) do sistema

˙x = Ax

que satisfazem n condi¸c˜oes iniciais

xi(0) = xi0 onde os vectores x10, x20, . . . , xn

0 s˜ao vectores linearmente independentes. Temos assim n solu¸c˜oes

do sistema da forma

xi(t) = eAtxi0

Considere-se a matriz W (t) cujos vectores coluna s˜ao xi(t). Ent˜ao

W (t) =£x1(t)|x2(t)| . . . |xn(t)¤ = eAt£x1

0|x20| . . . |xn0

¤

W ´e uma matriz como a descrita no teorema 4.3.4 e ´e o produto de duas matrizes n˜ao singulares. Logo det W (t) 6= 0. Este determinante diz-se o Wronskiano e W (t) ´e a matriz Wronskiana. Concluimos assim que as fun¸c˜oes xi(·) s˜ao linearmente independentes, ou seja:

n condi¸c˜oes iniciais dadas por vectores linearmente independentes geram n solu¸c˜oes do sistema linearmente independentes.

Exerc´ıcio 4.3.12 Verifique que qualquer solu¸c˜ao do sistema pode escrever-se como combina¸c˜ao linear das n fun¸c˜oes descritas em cima.

Documentos relacionados