• Nenhum resultado encontrado

Sistemas de Equa¸ c˜ oes Diferenciais

No documento EQUAÇÕES DIFERENCIAIS E (páginas 105-137)

A defini¸c˜ao de equa¸c˜ao diferencial ordin´aria dada no cap´ıtulo 1, bem como as no¸c˜oes b´asicas a´ı apresentadas, s˜ao v´alidas desde que a fun¸c˜ao desconhecidayesteja definida num intervalo real e tome valores em algum subconjunto deRn. Nos cap´ıtulos seguintes, e at´e agora, foram estudadas v´arias equa¸c˜oes diferenciais de primeira ordem e equa¸c˜oes lineares de ordem arbitr´aria, mas considerando sempre o caso escalar, no qual a fun¸c˜ao inc´ognita toma valores em R. Neste cap´ıtulo vamos estudar o caso vectorial, em que a fun¸c˜ao inc´ognita

´e uma fun¸c˜ao vectorial. Uma tal equa¸c˜ao pode ser reescrita em termos das componentes (reais) das fun¸c˜oes que nela figuram. E esta forma de evidenciar as fun¸c˜oes escalares que s˜ao as componentes da fun¸c˜ao vectorial inc´ognita, justifica o nome porque s˜ao mais vulgarmente conhecidas estas equa¸c˜oes diferenciais: sistemas de equa¸c˜oes diferenciais. Este tamb´em ser´a o termo adoptado neste curso. A forma normal mais geral de um tal sistema de primeira

ordem ´e 









y1 =f1(t, y1, y2, . . . , yn) y2 =f2(t, y1, y2, . . . , yn)

...

yn =fn(t, y1, y2, . . . , yn)

ondef1, f2, . . . , fns˜ao fun¸c˜oes reais conhecidas definidas num certo subconjunto Ω⊂ I×Rn, ondeI ´e um intervalo de n´umeros reais.

Se y ´e a fun¸c˜ao vectorial de componentes y1, y2,· · ·, yn e f ´e a fun¸c˜ao vectorial de componentesf1, f2, . . . , fn, o sistema anterior pode-se reescrever de forma condensada:

y=f(t,y).

O estudo destes destes sistemas diferenciais ser´a realizado nas sec¸c˜oes 3 e seguintes deste cap´ıtulo. Antes disso, nas sec¸c˜oes 1 e 2, recordarmos alguns conceitos da teoria das matrizes que ser˜ao ´uteis nesse estudo.

1. T´opicos da Teoria das Matrizes

1.1. Valores e vectores pr´oprios. Comecemos por recordar algumas defini¸c˜oes e resultados `acerca de matrizes quadradas reais. Seja A ∈ Rn×n. Um escalar λ (real ou complexo) diz-sevalor pr´opriodeAse for solu¸c˜ao da equa¸c˜ao caracter´ıstica deA, isto ´e, se

(1.1) det(A−λI) = 0.

Um vector n˜ao nulo v (real ou complexo) diz-se vector pr´oprio de A, associado ao valor pr´oprioλ, sevfor solu¸c˜ao da equa¸c˜ao linear

(1.2) (A−λI)v=0.

Conv´em observar que seλ verificar (1.1), ent˜ao a equa¸c˜ao (1.2) tem sempre solu¸c˜oesvn˜ao triviais. Al´em disso,para matrizes de entradas reais, os valores pr´oprios complexos ocorrem

101

em pares conjugadose, consequentemente, tamb´emos vectores pr´oprios, associados a pares de valores pr´oprios conjugados, ocorrem em pares com componentes conjugadas. De facto, seAtem entradas reais, tomando conjugados em ambos os membros da igualdadeAv=λv, obt´em-seAv=λv, ondev´e o vector cujas componentes s˜ao os conjugados das componentes dev.

Designaremos porσ(A) o conjunto dos valores pr´oprios deA, tamb´em chamadoespectro deAe porρ(A) oraio espectraldeA, que ´e, por defini¸c˜ao

ρ(A) := max

λσ(A)|λ|.

Para cadaλ ∈ σ(A), S(λ) designar´a o conjunto de todas as solu¸c˜oes v da equa¸c˜ao (1.2), chamadosubespa¸co pr´oprio deAassociado a λ. Verifica-se facilmente queS(λ)´e um sube-spa¸co vectorial deRn. Ainda, para cadaλ∈σ(A),ma(λ) denotar´a amultiplicidade alg´ebrica deλ, isto ´e, o n´umero de vezes que λ´e ra´ız da equa¸c˜ao caracter´ıstica (1.1), emg(λ) des-ignar´a amultiplicidade geom´etricadeλ, que ´e exactamente a dimens˜ao do subespa¸coS(λ).

Constata-se facilmente que

(1.3) 1≤mg(λ)≤ma(λ), ∀λ∈σ(A).

Teorema1.1. Vectores pr´oprios associados a valores pr´oprios distintos s˜ao linearmente independentes.

Prova. A prova faz-se facilmente por indu¸c˜ao sobre o n´umero de vectores pr´oprios em an´alise.

1.2. Diagonaliza¸c˜ao e triangulariza¸c˜ao de matrizes. Teorema de Shur. Duas matrizesAeB dizem-sesemelhantesse existir uma matriz invert´ıvelP tal que

P1AP =B .

E importante reter que´ matrizes semelhantes tˆem os mesmos valores pr´oprios, o mesmo tra¸co (que ´e, por defini¸c˜ao, a soma dos elementos que figuram na diagonal principal da matriz)e o mesmo determinante. Uma matriz diz-sediagonaliz´avelse for semelhante a uma matriz diagonal. Neste caso, os elementos que figuram na diagonal desta matriz diagonal s˜ao justamente os valores pr´oprios deA.

Teorema 1.2. A´e diagonaliz´avel se e s´o semg(λ) =ma(λ),∀λ∈σ(A).

E ´´ util observar que, nas condi¸c˜oes do teorema,as colunas da matriz P que diagonaliza As˜ao constitu´ıdas pelas componentes de n vectores pr´oprios linearmente independentes, o que permite concluir que a diagonaliza¸c˜ao a que se refere o teorema ´e uma diagonaliza¸c˜ao emC, mesmo queAseja real.

Corol´ario 1.1. Se todos os valores pr´oprios de A s˜ao distintos ent˜ao A ´e diago-naliz´avel.

Prova. ´E uma consequˆencia imediata do teorema 1.2 e de (1.3), j´a que afirmar queA tem valores pr´oprios distintos significa quema(λ) = 1,∀λ∈σ(A).

Embora nem todas as matrizes quadradas sejam diagonaliz´aveis, o teorema que a seguir se estabelece garante que toda a matriz quadrada ´etriangulariz´avel, isto ´e, semelhante a uma matriz triangular.

Teorema 1.3. (Schur) SeA´e uma matriz quadrada qualquer, existe uma matriz in-vert´ıvelP tal que

(1.4) P1AP =T,

ondeT ´e uma matriz triangular, tendo os valores pr´oprios deA ao longo da sua diagonal principal.

Prova. A demonstra¸c˜ao ser´a feita por indu¸c˜ao sobre a ordemndeAe admitindo, sem perda de generalidade, que T ´e triangular superior. Paran= 1 o teorema ´e trivialmente verdadeiro. Agora suponha-se que o teorema ´e verdadeiro para matrizesn×n(hip´otese de indu¸c˜ao) e prove-se que, ent˜ao, tamb´em se verifica para matrizes (n+ 1)×(n+ 1).

SejaAuma matriz (n+ 1)×(n+ 1) eλ1,· · ·, λn+1os seus valores pr´oprios, n˜ao neces-sariamente distintos. Seja, ainda,v1 um vector pr´oprio associado a um determinado valor pr´oprio, digamosλ1, isto ´e,Av11v1. SejaQuma matriz invert´ıvel cuja primeira coluna

´e constitu´ıda pelas componentes de v1. (A existˆencia deQ est´a garantida pelo teorema do completamento da base.) Ent˜aoQe1=v1, onde e1 = [ 1 0 · · · 0 ]T. Vamos mostrar que a matriz no segundo membro ´e semelhante `a matrizA. Mas, por hip´otese de indu¸c˜ao, existeP1 invert´ıvel tal queP1−1A1P1=T1, ondeT1´e triangular, tendo os valores pr´oprios deA1ao longo da diagonal principal. Agora vamos mostrar que a matriz invert´ıvel

P =Q

o que conclui a demonstra¸c˜ao.

Para exemplificar o processo de triangulariza¸c˜ao indicado pelo teorema de Schur, considere-se a matriz

Esta matrizAtem apenas um valor pr´oprio,λ= 2, com multiplicidade alg´ebricama(2) = 2.

Agora, as ´unicas solu¸c˜oes da equa¸c˜ao linearAv= 2vs˜ao os vectoresvda formav=£1

2

¤, comα∈R, pelo que o subespa¸co pr´oprio associado ao valor pr´oprio 2 ´e gerado por apenas

um vector pr´oprio, logomg(2) = 1. Consequentemente, a matrizA n˜ao ´e diagonaliz´avel.

Vamos, por isso, triangulariz´a-la, seguindo o esquema da demonstra¸c˜ao do teorema de Schur.

Considere-se o vector pr´oprio u:=£1

2

¤. Como n˜ao existe nenhum outro vector pr´oprio deA linearmente independente comu, escolhemos um vector qualquer deR2que seja linearmente independente comu, por exemplo, w :=£0

1

¤. Assim, a matriz P, cujas colunas s˜ao estes vectoresuew, triangularizaA. Efectuando c´alculos elementares, tem-se ent˜ao

(1.7) P := O resultado seguinte relaciona o tra¸co e o determinante de uma matriz com os seus valores pr´oprios.

Prova. ´E uma consequˆencia imediata do teorema de Schur, se se atender a que os valores pr´oprios de uma matriz triangular figuram na diagonal principal dessa matriz e a que matrizes semelhantes tˆem os mesmos valores pr´oprios e o mesmo determinante. De facto, considerando o polin´omio caracter´ıstico da matriz A = [aij]ni,j=1, designado por pA(λ), expandindo o determinante que o define usando o teorema de Laplace (desenvolvendo ao longo da primeira coluna, e.g.), verificamos que

pA(λ) := det(A−λI)

= (a11−λ)(a22−λ)· · ·(ann−λ) + {termos de grau≤n−2}

= (−1)nλn+ (−1)n1(a11+· · ·+annn1+ {termos de grau≤n−2}

= (−1)nλn+ (−1)n1(tra¸co(A) )λn1+ {termos de grau≤n−2}.

Agora, o teorema de Schur assegura queA´e semelhante a uma matriz triangular,T, tendo os valores pr´oprios de Aao longo da sua diagonal principal, e como matrizes semelhantes tˆem o mesmo polin´omio caracter´ıstico, decorre que

pA(λ) = pT(λ) = det(T −λI)

= (−1)nλn+ (−1)n1(tra¸co(T) )λn1+{termos de grau≤n−2}, logo tra¸co(A) = tra¸co(T) =Pn

i=1λi, sendo a ´ultima igualdade justificada pelo facto de a matrizT ter os valores pr´oprios ao longo da diagonal principal. Isto prova (i). Observe-se que a f´ormula (ii) tamb´em sai directamente da defini¸c˜ao de valor pr´oprio, pois tamb´em se pode escrever

pA(t) = (λ1−λ)· · ·(λn−λ), logo det(A) =pA(0) =Qn

i=1λi.

1.3. Matriz companheira. Matriz companheira´e qualquer matrizC da forma

(1.8) C =

ou cuja transposta tenha esta forma.

Teorema 1.4. Para uma matriz companheira,C, da forma(1.8), tem-se:

(i) det(C−λI) = (−1)nn+an1λn−1+· · ·+a1λ+a0) ;

(ii) Os vectores pr´oprios deC, associados a um qualquer valor pr´oprioλ, s˜ao m´ultiplos do vector

£ 1 λ λ2 · · · λn−1 ¤T

.

Decorre de (i) que os valores pr´oprios deC s˜ao as ra´ızes do polin´omio p(λ) :=λn+an1λn1+· · ·+a1λ+a0.

Por este motivo, h´a autores que se referem `a matrizC como sendo a matriz companheira do polin´omiop(λ). Decorre de (ii) que mg(λ) = 1,∀λ∈σ(C) , logouma matriz companheira ´e diagonaliz´avel se e s´o se todos os seus valores pr´oprios s˜ao distintos.

1.4. Vectores pr´oprios generalizados. Seja A uma matriz quadrada eλ ∈σ(A).

Um vector n˜ao nulov(real ou complexo) diz-se umvector pr´oprio generalizdodeAassociado ao valor pr´oprioλse verificar as duas condi¸c˜oes seguintes:

(i) (A−λI)v6=0 (i.e.,vn˜ao ´e vector pr´oprio deA) ; (ii) existe um n´umero inteiroℓ≥2 tal que (A−λI)v=0.

SeA´e uma matriz real de ordemnqualquer, o resultado seguinte, cuja demonstra¸c˜ao se omite, garante a existˆencia de um conjunto de n vectores linearmente independentes, constitu´ıdo por vectores pr´oprios e vectores pr´oprios generalizados deA.

Lema1.1. Suponha-se que λ1,· · ·, λk s˜ao os valores pr´oprios distintos de A∈Rn×n e quemai) =µi. Ent˜ao, para cadai= 1,· · ·, k, existe um inteiro positivodi ≤µi tal que a equa¸c˜ao (A−λiI)div=0 tem pelo menos µi solu¸c˜oes linearmente independentes. Al´em disso, estesµ1+· · ·+µk=nvectores s˜ao linearmente independentes.

1.5. Forma normal de Jordan. De acordo com o teorema 1.2, seA∈Rn×n´e diag-onaliz´avel, existe um conjunto de vectores pr´oprios de Alinearmente independentes cujas componentes formam as colunas da matriz que diagonalizaA. Contudo, no caso de An˜ao ser diagonaliz´avel ´e poss´ıvel reduz´ı-la, atrav´es de uma transforma¸c˜ao de semelhan¸ca, a uma forma can´onica, chamada forma normal de Jordan, que, n˜ao sendo diagonal, tem quando muito entradas n˜ao nulas na diagonal principal e na diagonal imediatamente acima desta.

A forma normal de Jordan deA´e uma matriz diagonal por blocos,J, tal que P1AP =J ,

cujos blocos n˜ao nulos, chamadosblocos elementares de Jordan, s˜ao submatrizes da forma

(1.9) Jm(λ) =







λ 1

λ 1

. .. ...

λ 1

λ





 ,

onde m indica a ordem da submatriz. O escalar λ que figura em cada um dos blocos elementares de Jordan deA´e valor pr´oprio deA. As colunas da matrizP que permite reduzir A`a sua forma normal de Jordan s˜ao constitu´ıdas pelas componentes denvectores, que s˜ao

vectores pr´oprios e vectores pr´oprios generalizados linearmente independentes, ordenados de forma conveniente. A existˆencia destesnvectores ´e garantida pelo lema 1.1. Observe-se que

Jm(λ) =λI+N , N=





 0 1

0 1

. .. ...

0 1

0







m×m

,

pelo que cada bloco elementar de Jordan se pode decompor na soma de uma matriz escalar (m´ultiplo da matriz identidade) com uma matriz nilpotente (i.e., existe uma poˆencia da matriz que se reduz `a matriz nula – no caso presente, ´eNm= 0 ).

1.6. Normas vectoriais e matriciais. No que vai seguir-se vamos considerar uma norma matricial definida por

kAk:= max

1≤i≤n 1≤j≤m

|aij|,

ondeA´e uma matriz de ordemn×mcom entradasaij, i.e.,A= [aij]∈Rn,m. Em particular, para um dado vectorv= [vi]ni=1∈Rn, tem-se

kvk:= max

1in|vi|. SendoA∈Rn,ke B∈Rk,m, ´e v´alida a desigualdade

(1.10) kABk ≤kkAk kBk.

Com efeito, pondoA= [aij] eB = [bij], por defini¸c˜ao do produtoAB, a entrada (i, j) desta matriz ´e (AB)ij=Pk

s=1aisbsj, logo kABk= max

1≤i≤n 1≤j≤m

|(AB)ij| ≤ Xk

s=1

max

1≤i≤n 1≤r≤k

|air| max

1≤r≤k 1≤j≤m

|brj|=kkAk kBk. Em particular, ´e ´util reter as seguintes desigualdades, paraA∈Rn,ne v∈Rn: (1.11) kAkk ≤nk1kAkk (k= 1,2,3,· · ·), kAvk ≤nkAk kvk.

Observac¸˜ao 1.1. Recorde-se que parav= (v1, . . . , vn)∈Rn, a sua norma euclideana

´e definida por

kvke:=

q

v12+· · ·+v2n,

sendo esta a norma usual que se considera no contexto das fun¸c˜oes vectoriais estudadas na An´alise Infinitesimal. Ora, pode provar-se que existem constantes C1 e C2, dependentes apenas den, tais que

C1kvk ≤ kvke≤C2kvk, v∈Rn.

Assim, os resultados estabelecidos para fun¸c˜oes vectoriais com base na defini¸c˜ao da norma euclideana (como resultados de continuidade, e.g.) permanecem v´alidos quer se considere a normak · kou a normak · ke.

1.7. Sucess˜oes e s´eries de matrizes. As no¸c˜oes de limite de uma sucess˜ao de ma-trizes, bem como as de s´erie e soma de uma s´erie de mama-trizes, s˜ao definidas da maneira natural, em termos dos correspondentes conceitos para as respectivas sucess˜oes das entradas das matrizes que figuram na sucess˜ao ou s´erie em causa. Assim, se{Ak}k∈N ´e uma sucess˜ao de matrizes, todas da mesma ordem, e A ´e uma matriz tamb´em da mesma ordem que a ordem comum das matrizes que constituem os termos da sucess˜ao, diz-se que{Ak}kN con-verge para A (ou que tem tem limite A), e escreve-se limk→∞Ak = A, ou Ak → A, se para cada par (i, j), a sucess˜ao das entradas que figuram na posi¸c˜ao (i, j) na sucess˜ao de matrizes A1, A2, . . . convergir para a entrada (i, j) da matriz A. Por conseguinte, pondo Ak= [a(k)ij ]i=1,...,r

j=1,...,s eB= [aij]i=1,...,r

j=1,...,s (onder×s´e a ordem comum das matrizes envolvidas), temos ade-quadas (de modo a que as rela¸c˜oes abaixo fa¸cam sentido), convergentes para as matrizesA eB, respectivamente, ent˜ao

(i) AkBk→AB

(ii) αAk+βBk →αA+βB (iii) P AkQ→P AQ ,

ondeP eQs˜ao matrizes fixas (de ordem apropriada) eαe βs˜ao n´umeros complexos.

Vamos agora explicitar o que se entende por s´erie matricial. Dada uma sucess˜ao de matrizes{Ak}kN, as´erie (matricial) cujo termo geral ´e esta sucess˜ao ´e a express˜ao

X

k=0

Ak.

Como usualmente, esta s´erie diz-se convergente se a sua sucess˜ao associada (das somas parciais){Sp}pN, onde

Sp:=

Xp

k=0

Ak

for convergente para alguma matrizS. Por exemplo, X

Como se sabe, dada uma s´erie num´erica, se esta for absolutamente convergente (i.e., se convergir a s´erie cujos termos s˜ao os m´odulo dos termos correpondentes da s´erie dada) ent˜ao

´e tamb´em convergente. A proposi¸c˜ao seguinte pode ser interpretada como sendo o resultado an´alogo para s´eries matriciais.

Teorema 1.5. Seja{Ak}kN0 uma qualquer sucess˜ao de matrizes da mesma ordem, e suponha-se que

(1.12) kAkk ≤ak (k= 0,1,2, . . .),

onde{ak}kN0 ´e uma sucess˜ao num´erica de termos n˜ao negativos. Nestas condi¸c˜oes, se a s´erie num´erica P

k=0ak for convergente, o mesmo sucede `a s´erie matricial P

k=0Ak. Prova. Por uma quest˜ao de simplicidade, vamos provar o resultado supondo que as matrizes Ak s˜ao quadradas de ordem n, mas isso n˜ao ´e essencial na prova. Designando por a(k)ij as entradas de Ak, por defini¸c˜ao de s´erie matricial temos que mostrar que para i, j = 1, . . . , n cada uma das s´eries num´ericas P

k=0a(k)ij ´e convergente. DesigneSN(i,j) o termo geral da sucess˜ao associada desta s´erie num´erica, i.e., SN(i,j) = PN

k=0a(k)ij . Ent˜ao,

Como, por hip´otese, a s´erie num´erica P

k=0ak ´e convergente, ent˜ao PM

k=N+1ak → 0 para M, N → ∞, logo tamb´em |SM(i,j)−SN(i,j)| → 0 para M, N → ∞. Isto significa que {SN(i,j)}N∈N0 ´e uma sucess˜ao de Cauchy para todo o par (i, j), logo cada uma das s´eries num´ericas P

k=0a(k)ij ´e convergente.

A proposi¸c˜ao seguinte depende do conhecimento de algumas no¸c˜oes elementares de fun¸c˜oes de vari´avel complexa, mas dela n˜ao depende nenhum resultado a estabelecer no seguimento do curso (pelo que a sua leitura pode ser omitida). Contudo, trata-se de um resultado interessante j´a que permite gerar s´eries matriciais convergentes a partir de s´eries de potˆencias de fun¸c˜oes, estabelecendo condi¸c˜oes que permitem substituir a vari´avel que figura na s´erie de potˆencias por uma matriz (de modo a obter uma s´erie matricial convergente).

Al´em disso, a prova faz uso da forma can´onica de Jordan, pelo que tem interesse apresent´a-la como exemplo de aplica¸c˜ao desta forma can´onica.

Teorema1.6.Designef(z)a fun¸c˜ao definida pela s´erie de potˆenciasf(z) =P

k=0ckzk, convergente para |z|< r. Ent˜ao a s´erie de potˆencias

f(A) :=

X

k=0

ckAk

´e convergente para toda a matriz quadradaA tal que ρ(A)< r.

Prova. Considerando a forma normal de Jordan para a matrizA, P1AP =J ,

observamos que basta provar o teorema para o caso em queJ consiste num ´unico bloco de Por conseguinte, se provarmos que a s´erie matricial f(J) :=P

k=0ckJk converge, usando a defini¸c˜ao de s´erie matricial e a propriedade (iii) acima, ter-se-´a

plim→∞

Xp

k=0

ckAk =P−1f(J)P , o que justificar´a a convergˆencia da s´erief(A), obtendo-se ainda

f(A) =P f(J)P1.

Prove-se, ent˜ao, a convergˆencia da s´erie f(J) . Como as matrizes λI e N comutam entre si, um c´alculo directo mostra que

Jk= (λI+N)k = Mas, tendo em conta queNm= 0 , podemos escrever

Jk=

sendo a ´ultima igualdade justificada pelo facto de a fun¸c˜ao f(z) (que ´e definida por uma s´erie de potˆencias) ter derivadas de todas as ordens nos pontosztais que|z|< r, as quais podem ser calculadas derivando a s´erie termo a termo, tendo-se

f(ℓ)(z) =ℓ!

Decorre de (1.13) que a s´erie definida porf(J) converge, o que conclui a prova.

Observac¸˜ao1.2. As sucessivas potˆencias da matriz nilpotenteNtˆem todas as entradas iguais a zero com excep¸c˜ao das entradas de uma diagonal paralela `a diagonal principal, as quais s˜ao todas iguais a 1. Mais concretamente, as ´unicas entradas n˜ao nulas e iguais a 1 da matrizN, paraℓ= 2,3, . . . , m−1, s˜ao as entradas que figuram na posi¸c˜ao (i, i+ℓ) para

i= 1,· · ·, m−ℓ. Assim, conhecida a fun¸c˜aof, a matriz que figura no ´ultimo membro de (1.13) pode calcular-se explicitamente, obtendo-se

(1.14) f(Jm(λ)) =

Recorde-se que dada uma matriz A(t) quadrada de ordem n (na verdade, no que a seguir se vai expor, n˜ao ´e necess´ario impor que a matriz seja quadrada), cujas entradas s˜ao fun¸c˜oes detderiv´aveis nalgum intervalo de n´umeros reais, a derivada matricial deA(t) nesse intervalo ´e, por defini¸c˜ao, a matriz que se obt´em deA(t) derivando todas as entradas desta matriz, i.e., se A(t) = [aij(t)]ni,j=1 ent˜ao

A(t) = [aij(t)]ni,j=1.

Analogamente, se as entradas aij(t) s˜ao fun¸c˜oes integr´aveis nalgum intervalo de n´umeros reais [a, b], o integral matricial deA(t) nesse intervalo ´e, por defini¸c˜ao, a matriz que se obt´em deA(t) integrando todas as entradas desta matriz, i.e.,

Z b

As proposi¸c˜oes seguintes estabelecem que uma s´erie de potˆencias de matrizes convergente num intervalo de n´umeros reais pode ser derivada termo a termo no interior desse intervalo e integrada termo a termo em qualquer subintervalo.

Teorema 1.7. Seja {Ak}kN0 uma sucess˜ao de matrizes de ordem n e suponha-se que esta sucess˜ao ´e o termo geral de uma s´erie (matricial) de potˆencias convergente num intervaloI ⊂R. Ent˜ao

(i)A s´erie pode ser derivada termo a termo no interior deI, i.e., d (ii)A s´erie pode ser integrada termo a termo em I, i.e.,

Z t por hip´otese, a s´erie matricial P

k=0Aktk ´e convergente para todo o t ∈ I ent˜ao, por defini¸c˜ao de s´erie matricial convergente, cada uma das s´eries (de potˆencias) de n´umeros reais P

donde, por defini¸c˜ao de derivada de uma matriz,

Agora, as s´eries que figuram nas entradas da matriz do segundo membro desta igualdade s˜ao s´eries de potˆencias convergentes para todo ot∈I, pelo que podem ser derivadas termo a termo no interior do seu intervalo de convergˆencia (que, naturalmente, tem que conterI0), obtendo-se

2.1. Defini¸c˜ao e exemplos. Como se sabe, sendo a um n´umero real ou complexo qualquer, a s´erie num´erica P

k=0ak/k! ´e convergente e tem por soma ea. Tal como sucede para um dado n´umero, tamb´em o conceito de exponencial pode ser introduzido para uma dada matriz (quadrada)A, definindo-se expAcomo sendo a soma de uma s´erie de matrizes adequada, definida `a custa deA.

Teorema2.1. Dada uma matrizAreal de ordemn, a s´erie P

k=0Ak/k! converge para uma matriz real de ordemn.

Prova. Basta observar que, pondoa:=kAk, atendendo a (1.11) ´ekAk/k!k=kAkk/k!≤ nk−1kAkk/k! ≤ (na)k/k! para todo o k∈ N0. Consequentemente, como a s´erie num´erica P

k=0(na)k/k! converge (para ena), decorre do teorema 1.5 que a s´erie matricial P

k=0Ak/k!

tamb´em converge.

Observac¸˜ao 2.1. Uma demonstra¸c˜ao alternativa (e igualmente imediata) do teorema precedente ´e a seguinte: comoρ(A)< a para alguma >0, e a fun¸c˜ao definida porf(z) :=

P

k=0zk/k! converge (para ez) em |z|< a, o teorema 1.6 assegura que a s´erie de matrizes f(A) = P

k=0Ak/k! ´e convergente. Note-se, contudo, que esta demonstra¸c˜ao, por ser baseada no teorema 1.6, depende de conhecimentos sobre fun¸c˜oes de vari´avel complexa.

Uma outra demonstra¸c˜ao aternativa, que tamb´em n˜ao envolve tais conhecimentos, pode fazer-se com argumentos de equa¸c˜oes diferenciais, com base no teorema 5.1 adiante (cf.

observa¸c˜ao 5.3).

A soma da s´erie anterior convencionou-se chamar exponencial da matriz` A. Mais pre-cisamente, dada uma matriz A real de ordem n, exponencial da matriz A, designada por expA ou eA, ´e a matriz real de ordemndefinida por

(2.1) expA=I+A+A2

2! +· · ·+Ak k! +· · ·, ondeI denota a matriz identidade de ordemn.

Deste modo, podemos definir a fun¸c˜ao matricial exptA,t∈R, (2.2) exptA=I+tA+A2t2

2! +· · ·+Aktk k! +· · ·.

Exemplos. O c´alculo da exponencial de uma matriz por recurso `a defini¸c˜ao pode ser extremamente complicado, mesmo para matrizes de ordem muito pequena. A seguir apresentam-se alguns exemplos simples.

•SejaAumamatriz diagonal, digamos,

A= diag{λ1,· · ·, λn}. Ent˜ao para cadak∈N´eAk= diag{λk1,· · ·, λkn}, logo

exptA= diag{e1,· · ·,en}.

•SejaAumamatriz diagonal por blocos,

A= diag{A1,· · ·, Aj},

•Finalmente, considere-se a matriz nilpotente

(2.3) N =

Vimos j´a anteriormente que as ´unicas entradas n˜ao nulas (e que s˜ao iguais a 1) da matriz Nk, para k = 2,3, . . . , n−1, s˜ao as entradas na posi¸c˜ao (i, i+k) para i = 1,· · ·, n−k.

2.2. Propriedades. Neste par´agrafo estabelecemos algumas propriedades da exponen-cial matriexponen-cial que ser˜ao de grande utilidade nas sec¸c˜oes seguintes.

Teorema 2.2. SejamA, B, P ∈Rn,n, sendoP invert´ıvel. Ent˜ao

Prova. A propriedade (i) ´e imediata. Para provar (ii) basta notar que a s´erie de potˆencias (matricial)P

k=0Aktk/k! =: expAt ´e convergente para todo ot∈R, pelo que, de acordo com o teorema 1.7, pode ser derivada termo a termo, o que permite escrever

d consequˆencia imediata do corol´ario 1.2. Na verdade, seλ1,· · ·, λn s˜ao os valores pr´oprios deA, ent˜ao pode-se escrever

det (expA) = Yn

i=1

eλi= e ni=1λi= etra¸co(A).

Remete-se a prova de (iv) para mais tarde (cf. observa¸c˜ao 7.2). A invertibilidade da exponencial matricial ´e garantida por (iii). Assim, para provar (v) basta observar que exp (tA) exp (−tA) = I, igualdade esta que resulta da propriedade (iv), com B = −A.

Finalmente, (vi) decorre da defini¸c˜ao de exponencial matricial e da f´ormula (P−1AP)k=P−1AkP , ∀k∈N,

cuja demonstra¸c˜ao se faz facilmente por indu¸c˜ao sobrek.

Observac¸˜ao2.2. De acordo com a propriedade (iv), seAeBs˜ao matrizes comutativas ent˜ao a exponencial matricial da somaA+B´e igual ao produto das exponenciais matriciais de cada parcela. Por´em, quando A e B n˜ao comutam este facto pode n˜ao se verificar.

Para justificar esta afirma¸c˜ao, considere-se uma matriz referida num exemplo anterior e cuja

Para justificar esta afirma¸c˜ao, considere-se uma matriz referida num exemplo anterior e cuja

No documento EQUAÇÕES DIFERENCIAIS E (páginas 105-137)

Documentos relacionados