A defini¸c˜ao de equa¸c˜ao diferencial ordin´aria dada no cap´ıtulo 1, bem como as no¸c˜oes b´asicas a´ı apresentadas, s˜ao v´alidas desde que a fun¸c˜ao desconhecidayesteja definida num intervalo real e tome valores em algum subconjunto deRn. Nos cap´ıtulos seguintes, e at´e agora, foram estudadas v´arias equa¸c˜oes diferenciais de primeira ordem e equa¸c˜oes lineares de ordem arbitr´aria, mas considerando sempre o caso escalar, no qual a fun¸c˜ao inc´ognita toma valores em R. Neste cap´ıtulo vamos estudar o caso vectorial, em que a fun¸c˜ao inc´ognita
´e uma fun¸c˜ao vectorial. Uma tal equa¸c˜ao pode ser reescrita em termos das componentes (reais) das fun¸c˜oes que nela figuram. E esta forma de evidenciar as fun¸c˜oes escalares que s˜ao as componentes da fun¸c˜ao vectorial inc´ognita, justifica o nome porque s˜ao mais vulgarmente conhecidas estas equa¸c˜oes diferenciais: sistemas de equa¸c˜oes diferenciais. Este tamb´em ser´a o termo adoptado neste curso. A forma normal mais geral de um tal sistema de primeira
ordem ´e
y1′ =f1(t, y1, y2, . . . , yn) y2′ =f2(t, y1, y2, . . . , yn)
...
yn′ =fn(t, y1, y2, . . . , yn)
ondef1, f2, . . . , fns˜ao fun¸c˜oes reais conhecidas definidas num certo subconjunto Ω⊂ I×Rn, ondeI ´e um intervalo de n´umeros reais.
Se y ´e a fun¸c˜ao vectorial de componentes y1, y2,· · ·, yn e f ´e a fun¸c˜ao vectorial de componentesf1, f2, . . . , fn, o sistema anterior pode-se reescrever de forma condensada:
y′=f(t,y).
O estudo destes destes sistemas diferenciais ser´a realizado nas sec¸c˜oes 3 e seguintes deste cap´ıtulo. Antes disso, nas sec¸c˜oes 1 e 2, recordarmos alguns conceitos da teoria das matrizes que ser˜ao ´uteis nesse estudo.
1. T´opicos da Teoria das Matrizes
1.1. Valores e vectores pr´oprios. Comecemos por recordar algumas defini¸c˜oes e resultados `acerca de matrizes quadradas reais. Seja A ∈ Rn×n. Um escalar λ (real ou complexo) diz-sevalor pr´opriodeAse for solu¸c˜ao da equa¸c˜ao caracter´ıstica deA, isto ´e, se
(1.1) det(A−λI) = 0.
Um vector n˜ao nulo v (real ou complexo) diz-se vector pr´oprio de A, associado ao valor pr´oprioλ, sevfor solu¸c˜ao da equa¸c˜ao linear
(1.2) (A−λI)v=0.
Conv´em observar que seλ verificar (1.1), ent˜ao a equa¸c˜ao (1.2) tem sempre solu¸c˜oesvn˜ao triviais. Al´em disso,para matrizes de entradas reais, os valores pr´oprios complexos ocorrem
101
em pares conjugadose, consequentemente, tamb´emos vectores pr´oprios, associados a pares de valores pr´oprios conjugados, ocorrem em pares com componentes conjugadas. De facto, seAtem entradas reais, tomando conjugados em ambos os membros da igualdadeAv=λv, obt´em-seAv=λv, ondev´e o vector cujas componentes s˜ao os conjugados das componentes dev.
Designaremos porσ(A) o conjunto dos valores pr´oprios deA, tamb´em chamadoespectro deAe porρ(A) oraio espectraldeA, que ´e, por defini¸c˜ao
ρ(A) := max
λ∈σ(A)|λ|.
Para cadaλ ∈ σ(A), S(λ) designar´a o conjunto de todas as solu¸c˜oes v da equa¸c˜ao (1.2), chamadosubespa¸co pr´oprio deAassociado a λ. Verifica-se facilmente queS(λ)´e um sube-spa¸co vectorial deRn. Ainda, para cadaλ∈σ(A),ma(λ) denotar´a amultiplicidade alg´ebrica deλ, isto ´e, o n´umero de vezes que λ´e ra´ız da equa¸c˜ao caracter´ıstica (1.1), emg(λ) des-ignar´a amultiplicidade geom´etricadeλ, que ´e exactamente a dimens˜ao do subespa¸coS(λ).
Constata-se facilmente que
(1.3) 1≤mg(λ)≤ma(λ), ∀λ∈σ(A).
Teorema1.1. Vectores pr´oprios associados a valores pr´oprios distintos s˜ao linearmente independentes.
Prova. A prova faz-se facilmente por indu¸c˜ao sobre o n´umero de vectores pr´oprios em an´alise.
1.2. Diagonaliza¸c˜ao e triangulariza¸c˜ao de matrizes. Teorema de Shur. Duas matrizesAeB dizem-sesemelhantesse existir uma matriz invert´ıvelP tal que
P−1AP =B .
E importante reter que´ matrizes semelhantes tˆem os mesmos valores pr´oprios, o mesmo tra¸co (que ´e, por defini¸c˜ao, a soma dos elementos que figuram na diagonal principal da matriz)e o mesmo determinante. Uma matriz diz-sediagonaliz´avelse for semelhante a uma matriz diagonal. Neste caso, os elementos que figuram na diagonal desta matriz diagonal s˜ao justamente os valores pr´oprios deA.
Teorema 1.2. A´e diagonaliz´avel se e s´o semg(λ) =ma(λ),∀λ∈σ(A).
E ´´ util observar que, nas condi¸c˜oes do teorema,as colunas da matriz P que diagonaliza As˜ao constitu´ıdas pelas componentes de n vectores pr´oprios linearmente independentes, o que permite concluir que a diagonaliza¸c˜ao a que se refere o teorema ´e uma diagonaliza¸c˜ao emC, mesmo queAseja real.
Corol´ario 1.1. Se todos os valores pr´oprios de A s˜ao distintos ent˜ao A ´e diago-naliz´avel.
Prova. ´E uma consequˆencia imediata do teorema 1.2 e de (1.3), j´a que afirmar queA tem valores pr´oprios distintos significa quema(λ) = 1,∀λ∈σ(A).
Embora nem todas as matrizes quadradas sejam diagonaliz´aveis, o teorema que a seguir se estabelece garante que toda a matriz quadrada ´etriangulariz´avel, isto ´e, semelhante a uma matriz triangular.
Teorema 1.3. (Schur) SeA´e uma matriz quadrada qualquer, existe uma matriz in-vert´ıvelP tal que
(1.4) P−1AP =T,
ondeT ´e uma matriz triangular, tendo os valores pr´oprios deA ao longo da sua diagonal principal.
Prova. A demonstra¸c˜ao ser´a feita por indu¸c˜ao sobre a ordemndeAe admitindo, sem perda de generalidade, que T ´e triangular superior. Paran= 1 o teorema ´e trivialmente verdadeiro. Agora suponha-se que o teorema ´e verdadeiro para matrizesn×n(hip´otese de indu¸c˜ao) e prove-se que, ent˜ao, tamb´em se verifica para matrizes (n+ 1)×(n+ 1).
SejaAuma matriz (n+ 1)×(n+ 1) eλ1,· · ·, λn+1os seus valores pr´oprios, n˜ao neces-sariamente distintos. Seja, ainda,v1 um vector pr´oprio associado a um determinado valor pr´oprio, digamosλ1, isto ´e,Av1=λ1v1. SejaQuma matriz invert´ıvel cuja primeira coluna
´e constitu´ıda pelas componentes de v1. (A existˆencia deQ est´a garantida pelo teorema do completamento da base.) Ent˜aoQe1=v1, onde e1 = [ 1 0 · · · 0 ]T. Vamos mostrar que a matriz no segundo membro ´e semelhante `a matrizA. Mas, por hip´otese de indu¸c˜ao, existeP1 invert´ıvel tal queP1−1A1P1=T1, ondeT1´e triangular, tendo os valores pr´oprios deA1ao longo da diagonal principal. Agora vamos mostrar que a matriz invert´ıvel
P =Q
o que conclui a demonstra¸c˜ao.
Para exemplificar o processo de triangulariza¸c˜ao indicado pelo teorema de Schur, considere-se a matriz
Esta matrizAtem apenas um valor pr´oprio,λ= 2, com multiplicidade alg´ebricama(2) = 2.
Agora, as ´unicas solu¸c˜oes da equa¸c˜ao linearAv= 2vs˜ao os vectoresvda formav=£1
2
¤, comα∈R, pelo que o subespa¸co pr´oprio associado ao valor pr´oprio 2 ´e gerado por apenas
um vector pr´oprio, logomg(2) = 1. Consequentemente, a matrizA n˜ao ´e diagonaliz´avel.
Vamos, por isso, triangulariz´a-la, seguindo o esquema da demonstra¸c˜ao do teorema de Schur.
Considere-se o vector pr´oprio u:=£1
2
¤. Como n˜ao existe nenhum outro vector pr´oprio deA linearmente independente comu, escolhemos um vector qualquer deR2que seja linearmente independente comu, por exemplo, w :=£0
1
¤. Assim, a matriz P, cujas colunas s˜ao estes vectoresuew, triangularizaA. Efectuando c´alculos elementares, tem-se ent˜ao
(1.7) P := O resultado seguinte relaciona o tra¸co e o determinante de uma matriz com os seus valores pr´oprios.
Prova. ´E uma consequˆencia imediata do teorema de Schur, se se atender a que os valores pr´oprios de uma matriz triangular figuram na diagonal principal dessa matriz e a que matrizes semelhantes tˆem os mesmos valores pr´oprios e o mesmo determinante. De facto, considerando o polin´omio caracter´ıstico da matriz A = [aij]ni,j=1, designado por pA(λ), expandindo o determinante que o define usando o teorema de Laplace (desenvolvendo ao longo da primeira coluna, e.g.), verificamos que
pA(λ) := det(A−λI)
= (a11−λ)(a22−λ)· · ·(ann−λ) + {termos de grau≤n−2}
= (−1)nλn+ (−1)n−1(a11+· · ·+ann)λn−1+ {termos de grau≤n−2}
= (−1)nλn+ (−1)n−1(tra¸co(A) )λn−1+ {termos de grau≤n−2}.
Agora, o teorema de Schur assegura queA´e semelhante a uma matriz triangular,T, tendo os valores pr´oprios de Aao longo da sua diagonal principal, e como matrizes semelhantes tˆem o mesmo polin´omio caracter´ıstico, decorre que
pA(λ) = pT(λ) = det(T −λI)
= (−1)nλn+ (−1)n−1(tra¸co(T) )λn−1+{termos de grau≤n−2}, logo tra¸co(A) = tra¸co(T) =Pn
i=1λi, sendo a ´ultima igualdade justificada pelo facto de a matrizT ter os valores pr´oprios ao longo da diagonal principal. Isto prova (i). Observe-se que a f´ormula (ii) tamb´em sai directamente da defini¸c˜ao de valor pr´oprio, pois tamb´em se pode escrever
pA(t) = (λ1−λ)· · ·(λn−λ), logo det(A) =pA(0) =Qn
i=1λi.
1.3. Matriz companheira. Matriz companheira´e qualquer matrizC da forma
(1.8) C =
ou cuja transposta tenha esta forma.
Teorema 1.4. Para uma matriz companheira,C, da forma(1.8), tem-se:
(i) det(C−λI) = (−1)n(λn+an−1λn−1+· · ·+a1λ+a0) ;
(ii) Os vectores pr´oprios deC, associados a um qualquer valor pr´oprioλ, s˜ao m´ultiplos do vector
£ 1 λ λ2 · · · λn−1 ¤T
.
Decorre de (i) que os valores pr´oprios deC s˜ao as ra´ızes do polin´omio p(λ) :=λn+an−1λn−1+· · ·+a1λ+a0.
Por este motivo, h´a autores que se referem `a matrizC como sendo a matriz companheira do polin´omiop(λ). Decorre de (ii) que mg(λ) = 1,∀λ∈σ(C) , logouma matriz companheira ´e diagonaliz´avel se e s´o se todos os seus valores pr´oprios s˜ao distintos.
1.4. Vectores pr´oprios generalizados. Seja A uma matriz quadrada eλ ∈σ(A).
Um vector n˜ao nulov(real ou complexo) diz-se umvector pr´oprio generalizdodeAassociado ao valor pr´oprioλse verificar as duas condi¸c˜oes seguintes:
(i) (A−λI)v6=0 (i.e.,vn˜ao ´e vector pr´oprio deA) ; (ii) existe um n´umero inteiroℓ≥2 tal que (A−λI)ℓv=0.
SeA´e uma matriz real de ordemnqualquer, o resultado seguinte, cuja demonstra¸c˜ao se omite, garante a existˆencia de um conjunto de n vectores linearmente independentes, constitu´ıdo por vectores pr´oprios e vectores pr´oprios generalizados deA.
Lema1.1. Suponha-se que λ1,· · ·, λk s˜ao os valores pr´oprios distintos de A∈Rn×n e quema(λi) =µi. Ent˜ao, para cadai= 1,· · ·, k, existe um inteiro positivodi ≤µi tal que a equa¸c˜ao (A−λiI)div=0 tem pelo menos µi solu¸c˜oes linearmente independentes. Al´em disso, estesµ1+· · ·+µk=nvectores s˜ao linearmente independentes.
1.5. Forma normal de Jordan. De acordo com o teorema 1.2, seA∈Rn×n´e diag-onaliz´avel, existe um conjunto de vectores pr´oprios de Alinearmente independentes cujas componentes formam as colunas da matriz que diagonalizaA. Contudo, no caso de An˜ao ser diagonaliz´avel ´e poss´ıvel reduz´ı-la, atrav´es de uma transforma¸c˜ao de semelhan¸ca, a uma forma can´onica, chamada forma normal de Jordan, que, n˜ao sendo diagonal, tem quando muito entradas n˜ao nulas na diagonal principal e na diagonal imediatamente acima desta.
A forma normal de Jordan deA´e uma matriz diagonal por blocos,J, tal que P−1AP =J ,
cujos blocos n˜ao nulos, chamadosblocos elementares de Jordan, s˜ao submatrizes da forma
(1.9) Jm(λ) =
λ 1
λ 1
. .. ...
λ 1
λ
,
onde m indica a ordem da submatriz. O escalar λ que figura em cada um dos blocos elementares de Jordan deA´e valor pr´oprio deA. As colunas da matrizP que permite reduzir A`a sua forma normal de Jordan s˜ao constitu´ıdas pelas componentes denvectores, que s˜ao
vectores pr´oprios e vectores pr´oprios generalizados linearmente independentes, ordenados de forma conveniente. A existˆencia destesnvectores ´e garantida pelo lema 1.1. Observe-se que
Jm(λ) =λI+N , N=
0 1
0 1
. .. ...
0 1
0
m×m
,
pelo que cada bloco elementar de Jordan se pode decompor na soma de uma matriz escalar (m´ultiplo da matriz identidade) com uma matriz nilpotente (i.e., existe uma poˆencia da matriz que se reduz `a matriz nula – no caso presente, ´eNm= 0 ).
1.6. Normas vectoriais e matriciais. No que vai seguir-se vamos considerar uma norma matricial definida por
kAk:= max
1≤i≤n 1≤j≤m
|aij|,
ondeA´e uma matriz de ordemn×mcom entradasaij, i.e.,A= [aij]∈Rn,m. Em particular, para um dado vectorv= [vi]ni=1∈Rn, tem-se
kvk:= max
1≤i≤n|vi|. SendoA∈Rn,ke B∈Rk,m, ´e v´alida a desigualdade
(1.10) kABk ≤kkAk kBk.
Com efeito, pondoA= [aij] eB = [bij], por defini¸c˜ao do produtoAB, a entrada (i, j) desta matriz ´e (AB)ij=Pk
s=1aisbsj, logo kABk= max
1≤i≤n 1≤j≤m
|(AB)ij| ≤ Xk
s=1
max
1≤i≤n 1≤r≤k
|air| max
1≤r≤k 1≤j≤m
|brj|=kkAk kBk. Em particular, ´e ´util reter as seguintes desigualdades, paraA∈Rn,ne v∈Rn: (1.11) kAkk ≤nk−1kAkk (k= 1,2,3,· · ·), kAvk ≤nkAk kvk.
Observac¸˜ao 1.1. Recorde-se que parav= (v1, . . . , vn)∈Rn, a sua norma euclideana
´e definida por
kvke:=
q
v12+· · ·+v2n,
sendo esta a norma usual que se considera no contexto das fun¸c˜oes vectoriais estudadas na An´alise Infinitesimal. Ora, pode provar-se que existem constantes C1 e C2, dependentes apenas den, tais que
C1kvk ≤ kvke≤C2kvk, v∈Rn.
Assim, os resultados estabelecidos para fun¸c˜oes vectoriais com base na defini¸c˜ao da norma euclideana (como resultados de continuidade, e.g.) permanecem v´alidos quer se considere a normak · kou a normak · ke.
1.7. Sucess˜oes e s´eries de matrizes. As no¸c˜oes de limite de uma sucess˜ao de ma-trizes, bem como as de s´erie e soma de uma s´erie de mama-trizes, s˜ao definidas da maneira natural, em termos dos correspondentes conceitos para as respectivas sucess˜oes das entradas das matrizes que figuram na sucess˜ao ou s´erie em causa. Assim, se{Ak}k∈N ´e uma sucess˜ao de matrizes, todas da mesma ordem, e A ´e uma matriz tamb´em da mesma ordem que a ordem comum das matrizes que constituem os termos da sucess˜ao, diz-se que{Ak}k∈N con-verge para A (ou que tem tem limite A), e escreve-se limk→∞Ak = A, ou Ak → A, se para cada par (i, j), a sucess˜ao das entradas que figuram na posi¸c˜ao (i, j) na sucess˜ao de matrizes A1, A2, . . . convergir para a entrada (i, j) da matriz A. Por conseguinte, pondo Ak= [a(k)ij ]i=1,...,r
j=1,...,s eB= [aij]i=1,...,r
j=1,...,s (onder×s´e a ordem comum das matrizes envolvidas), temos ade-quadas (de modo a que as rela¸c˜oes abaixo fa¸cam sentido), convergentes para as matrizesA eB, respectivamente, ent˜ao
(i) AkBk→AB
(ii) αAk+βBk →αA+βB (iii) P AkQ→P AQ ,
ondeP eQs˜ao matrizes fixas (de ordem apropriada) eαe βs˜ao n´umeros complexos.
Vamos agora explicitar o que se entende por s´erie matricial. Dada uma sucess˜ao de matrizes{Ak}k∈N, as´erie (matricial) cujo termo geral ´e esta sucess˜ao ´e a express˜ao
X∞
k=0
Ak.
Como usualmente, esta s´erie diz-se convergente se a sua sucess˜ao associada (das somas parciais){Sp}p∈N, onde
Sp:=
Xp
k=0
Ak
for convergente para alguma matrizS. Por exemplo, X∞
Como se sabe, dada uma s´erie num´erica, se esta for absolutamente convergente (i.e., se convergir a s´erie cujos termos s˜ao os m´odulo dos termos correpondentes da s´erie dada) ent˜ao
´e tamb´em convergente. A proposi¸c˜ao seguinte pode ser interpretada como sendo o resultado an´alogo para s´eries matriciais.
Teorema 1.5. Seja{Ak}k∈N0 uma qualquer sucess˜ao de matrizes da mesma ordem, e suponha-se que
(1.12) kAkk ≤ak (k= 0,1,2, . . .),
onde{ak}k∈N0 ´e uma sucess˜ao num´erica de termos n˜ao negativos. Nestas condi¸c˜oes, se a s´erie num´erica P∞
k=0ak for convergente, o mesmo sucede `a s´erie matricial P∞
k=0Ak. Prova. Por uma quest˜ao de simplicidade, vamos provar o resultado supondo que as matrizes Ak s˜ao quadradas de ordem n, mas isso n˜ao ´e essencial na prova. Designando por a(k)ij as entradas de Ak, por defini¸c˜ao de s´erie matricial temos que mostrar que para i, j = 1, . . . , n cada uma das s´eries num´ericas P∞
k=0a(k)ij ´e convergente. DesigneSN(i,j) o termo geral da sucess˜ao associada desta s´erie num´erica, i.e., SN(i,j) = PN
k=0a(k)ij . Ent˜ao,
Como, por hip´otese, a s´erie num´erica P∞
k=0ak ´e convergente, ent˜ao PM
k=N+1ak → 0 para M, N → ∞, logo tamb´em |SM(i,j)−SN(i,j)| → 0 para M, N → ∞. Isto significa que {SN(i,j)}N∈N0 ´e uma sucess˜ao de Cauchy para todo o par (i, j), logo cada uma das s´eries num´ericas P∞
k=0a(k)ij ´e convergente.
A proposi¸c˜ao seguinte depende do conhecimento de algumas no¸c˜oes elementares de fun¸c˜oes de vari´avel complexa, mas dela n˜ao depende nenhum resultado a estabelecer no seguimento do curso (pelo que a sua leitura pode ser omitida). Contudo, trata-se de um resultado interessante j´a que permite gerar s´eries matriciais convergentes a partir de s´eries de potˆencias de fun¸c˜oes, estabelecendo condi¸c˜oes que permitem substituir a vari´avel que figura na s´erie de potˆencias por uma matriz (de modo a obter uma s´erie matricial convergente).
Al´em disso, a prova faz uso da forma can´onica de Jordan, pelo que tem interesse apresent´a-la como exemplo de aplica¸c˜ao desta forma can´onica.
Teorema1.6.Designef(z)a fun¸c˜ao definida pela s´erie de potˆenciasf(z) =P∞
k=0ckzk, convergente para |z|< r. Ent˜ao a s´erie de potˆencias
f(A) :=
X∞
k=0
ckAk
´e convergente para toda a matriz quadradaA tal que ρ(A)< r.
Prova. Considerando a forma normal de Jordan para a matrizA, P−1AP =J ,
observamos que basta provar o teorema para o caso em queJ consiste num ´unico bloco de Por conseguinte, se provarmos que a s´erie matricial f(J) :=P∞
k=0ckJk converge, usando a defini¸c˜ao de s´erie matricial e a propriedade (iii) acima, ter-se-´a
plim→∞
Xp
k=0
ckAk =P−1f(J)P , o que justificar´a a convergˆencia da s´erief(A), obtendo-se ainda
f(A) =P f(J)P−1.
Prove-se, ent˜ao, a convergˆencia da s´erie f(J) . Como as matrizes λI e N comutam entre si, um c´alculo directo mostra que
Jk= (λI+N)k = Mas, tendo em conta queNm= 0 , podemos escrever
Jk=
sendo a ´ultima igualdade justificada pelo facto de a fun¸c˜ao f(z) (que ´e definida por uma s´erie de potˆencias) ter derivadas de todas as ordens nos pontosztais que|z|< r, as quais podem ser calculadas derivando a s´erie termo a termo, tendo-se
f(ℓ)(z) =ℓ!
Decorre de (1.13) que a s´erie definida porf(J) converge, o que conclui a prova.
Observac¸˜ao1.2. As sucessivas potˆencias da matriz nilpotenteNtˆem todas as entradas iguais a zero com excep¸c˜ao das entradas de uma diagonal paralela `a diagonal principal, as quais s˜ao todas iguais a 1. Mais concretamente, as ´unicas entradas n˜ao nulas e iguais a 1 da matrizNℓ, paraℓ= 2,3, . . . , m−1, s˜ao as entradas que figuram na posi¸c˜ao (i, i+ℓ) para
i= 1,· · ·, m−ℓ. Assim, conhecida a fun¸c˜aof, a matriz que figura no ´ultimo membro de (1.13) pode calcular-se explicitamente, obtendo-se
(1.14) f(Jm(λ)) =
Recorde-se que dada uma matriz A(t) quadrada de ordem n (na verdade, no que a seguir se vai expor, n˜ao ´e necess´ario impor que a matriz seja quadrada), cujas entradas s˜ao fun¸c˜oes detderiv´aveis nalgum intervalo de n´umeros reais, a derivada matricial deA(t) nesse intervalo ´e, por defini¸c˜ao, a matriz que se obt´em deA(t) derivando todas as entradas desta matriz, i.e., se A(t) = [aij(t)]ni,j=1 ent˜ao
A′(t) = [a′ij(t)]ni,j=1.
Analogamente, se as entradas aij(t) s˜ao fun¸c˜oes integr´aveis nalgum intervalo de n´umeros reais [a, b], o integral matricial deA(t) nesse intervalo ´e, por defini¸c˜ao, a matriz que se obt´em deA(t) integrando todas as entradas desta matriz, i.e.,
Z b
As proposi¸c˜oes seguintes estabelecem que uma s´erie de potˆencias de matrizes convergente num intervalo de n´umeros reais pode ser derivada termo a termo no interior desse intervalo e integrada termo a termo em qualquer subintervalo.
Teorema 1.7. Seja {Ak}k∈N0 uma sucess˜ao de matrizes de ordem n e suponha-se que esta sucess˜ao ´e o termo geral de uma s´erie (matricial) de potˆencias convergente num intervaloI ⊂R. Ent˜ao
(i)A s´erie pode ser derivada termo a termo no interior deI, i.e., d (ii)A s´erie pode ser integrada termo a termo em I, i.e.,
Z t por hip´otese, a s´erie matricial P∞
k=0Aktk ´e convergente para todo o t ∈ I ent˜ao, por defini¸c˜ao de s´erie matricial convergente, cada uma das s´eries (de potˆencias) de n´umeros reais P∞
donde, por defini¸c˜ao de derivada de uma matriz,
Agora, as s´eries que figuram nas entradas da matriz do segundo membro desta igualdade s˜ao s´eries de potˆencias convergentes para todo ot∈I, pelo que podem ser derivadas termo a termo no interior do seu intervalo de convergˆencia (que, naturalmente, tem que conterI0), obtendo-se
2.1. Defini¸c˜ao e exemplos. Como se sabe, sendo a um n´umero real ou complexo qualquer, a s´erie num´erica P∞
k=0ak/k! ´e convergente e tem por soma ea. Tal como sucede para um dado n´umero, tamb´em o conceito de exponencial pode ser introduzido para uma dada matriz (quadrada)A, definindo-se expAcomo sendo a soma de uma s´erie de matrizes adequada, definida `a custa deA.
Teorema2.1. Dada uma matrizAreal de ordemn, a s´erie P∞
k=0Ak/k! converge para uma matriz real de ordemn.
Prova. Basta observar que, pondoa:=kAk, atendendo a (1.11) ´ekAk/k!k=kAkk/k!≤ nk−1kAkk/k! ≤ (na)k/k! para todo o k∈ N0. Consequentemente, como a s´erie num´erica P∞
k=0(na)k/k! converge (para ena), decorre do teorema 1.5 que a s´erie matricial P∞
k=0Ak/k!
tamb´em converge.
Observac¸˜ao 2.1. Uma demonstra¸c˜ao alternativa (e igualmente imediata) do teorema precedente ´e a seguinte: comoρ(A)< a para alguma >0, e a fun¸c˜ao definida porf(z) :=
P∞
k=0zk/k! converge (para ez) em |z|< a, o teorema 1.6 assegura que a s´erie de matrizes f(A) = P∞
k=0Ak/k! ´e convergente. Note-se, contudo, que esta demonstra¸c˜ao, por ser baseada no teorema 1.6, depende de conhecimentos sobre fun¸c˜oes de vari´avel complexa.
Uma outra demonstra¸c˜ao aternativa, que tamb´em n˜ao envolve tais conhecimentos, pode fazer-se com argumentos de equa¸c˜oes diferenciais, com base no teorema 5.1 adiante (cf.
observa¸c˜ao 5.3).
A soma da s´erie anterior convencionou-se chamar exponencial da matriz` A. Mais pre-cisamente, dada uma matriz A real de ordem n, exponencial da matriz A, designada por expA ou eA, ´e a matriz real de ordemndefinida por
(2.1) expA=I+A+A2
2! +· · ·+Ak k! +· · ·, ondeI denota a matriz identidade de ordemn.
Deste modo, podemos definir a fun¸c˜ao matricial exptA,t∈R, (2.2) exptA=I+tA+A2t2
2! +· · ·+Aktk k! +· · ·.
Exemplos. O c´alculo da exponencial de uma matriz por recurso `a defini¸c˜ao pode ser extremamente complicado, mesmo para matrizes de ordem muito pequena. A seguir apresentam-se alguns exemplos simples.
•SejaAumamatriz diagonal, digamos,
A= diag{λ1,· · ·, λn}. Ent˜ao para cadak∈N´eAk= diag{λk1,· · ·, λkn}, logo
exptA= diag{etλ1,· · ·,etλn}.
•SejaAumamatriz diagonal por blocos,
A= diag{A1,· · ·, Aj},
•Finalmente, considere-se a matriz nilpotente
(2.3) N =
Vimos j´a anteriormente que as ´unicas entradas n˜ao nulas (e que s˜ao iguais a 1) da matriz Nk, para k = 2,3, . . . , n−1, s˜ao as entradas na posi¸c˜ao (i, i+k) para i = 1,· · ·, n−k.
2.2. Propriedades. Neste par´agrafo estabelecemos algumas propriedades da exponen-cial matriexponen-cial que ser˜ao de grande utilidade nas sec¸c˜oes seguintes.
Teorema 2.2. SejamA, B, P ∈Rn,n, sendoP invert´ıvel. Ent˜ao
Prova. A propriedade (i) ´e imediata. Para provar (ii) basta notar que a s´erie de potˆencias (matricial)P∞
k=0Aktk/k! =: expAt ´e convergente para todo ot∈R, pelo que, de acordo com o teorema 1.7, pode ser derivada termo a termo, o que permite escrever
d consequˆencia imediata do corol´ario 1.2. Na verdade, seλ1,· · ·, λn s˜ao os valores pr´oprios deA, ent˜ao pode-se escrever
det (expA) = Yn
i=1
eλi= e ni=1λi= etra¸co(A).
Remete-se a prova de (iv) para mais tarde (cf. observa¸c˜ao 7.2). A invertibilidade da exponencial matricial ´e garantida por (iii). Assim, para provar (v) basta observar que exp (tA) exp (−tA) = I, igualdade esta que resulta da propriedade (iv), com B = −A.
Finalmente, (vi) decorre da defini¸c˜ao de exponencial matricial e da f´ormula (P−1AP)k=P−1AkP , ∀k∈N,
cuja demonstra¸c˜ao se faz facilmente por indu¸c˜ao sobrek.
Observac¸˜ao2.2. De acordo com a propriedade (iv), seAeBs˜ao matrizes comutativas ent˜ao a exponencial matricial da somaA+B´e igual ao produto das exponenciais matriciais de cada parcela. Por´em, quando A e B n˜ao comutam este facto pode n˜ao se verificar.
Para justificar esta afirma¸c˜ao, considere-se uma matriz referida num exemplo anterior e cuja
Para justificar esta afirma¸c˜ao, considere-se uma matriz referida num exemplo anterior e cuja