EQUAC
¸ ˜
OES DIFERENCIAIS, aulas te´
oricas (resumo)
Faculdade de Ciˆ
encias da Universidade de Lisboa, 2009
1
Introdu¸
c˜
ao, revis˜
ao
Nesta aula recordamos exemplos simples de resolu¸c˜ao de equa¸c˜oes diferenciais e introduziremos algumas ideias que ter˜ao desenvolvimento ao longo do curso.
Sempre que falamos de uma “solu¸c˜ao”de alguma equa¸c˜ao diferencial subentendemos que se trata de uma fun¸c˜ao definida num intervalo de R que satisfaz a referida equa¸c˜ao.
Exemplo 1.1 O problema de valor inicial (1.1) y0 = y2, y(0) = y0
tem a (´unica) solu¸c˜ao
y = y0 1 − xy0
como facilmente se vˆe usando “separa¸c˜ao de vari´aveis”. Note-se que, se y0 6= 0, o dom´ınio da
solu¸c˜ao ´e um intervalo com um extremo finito (qual?).
Exemplo 1.2 O problema (1.2) y0 =p|y|, y(0) = 0 tem as solu¸c˜oes positivas
y =(x + c)
2
4 em (−c, +∞) e as solu¸c˜oes negativas
y = −(x + c)
2
4
em (−∞, c), onde c ´e um n´umero real qualquer. Assim, por exemplo, tamb´em ´e solu¸c˜ao a seguinte fun¸c˜ao y(x) = x2 4 x ≥ 0 0, x ∈ [−5, 0] −(x+5)4 2 x ≤ −5
Exemplo 1.3 O problema de valor inicial para uma equa¸c˜ao geral de vari´aveis separ´aveis (onde f e g s˜ao cont´ınuas em intervalos dados)
(1.3) y0 = f (x)g(y), y(ξ) = η
tem solu¸c˜oes y(x) definidas implicitamente por
H(y) = F (x)
onde H e F s˜ao as primitivas de 1/g e f , respectivamente, que se anulam em η e ξ. Se g(η) = 0, h´a uma solu¸c˜ao constante y ≡ η; e se g 6= 0 (digamos, g > 0 para fixar ideias) num intervalo do tipo [η − δ, η), ent˜ao o problema
(1.4) y0 = f (x)g(y), y( ¯ξ) = η − δ tem a solu¸c˜ao definida implicitamente por
Z y(x) η−δ dy g(y) = Z x ¯ ξ f (t) dt
e esta solu¸c˜ao n˜ao tomar´a o valor η desde que Rη
η−δ dy g(y)= ∞.
Exemplo 1.4 Podemos resolver a equa¸c˜ao y0 = y(1 − y) explicitamente, mas podemos antever o comportamento das solu¸c˜oes. Mais geralmente, podemos fazˆe-lo para a equa¸c˜ao y0 = f (y) onde f ´
e uma fun¸c˜ao real cont´ınua com dois zeros dados a < b.
Exemplo 1.5 A equa¸c˜ao y0 = f (x, y) diz-se homog´enea se o 2o membro pode ser expresso como
fun¸c˜ao unicamente de yx. A substitui¸c˜ao y = vx conduz ent˜ao a outra equa¸c˜ao diferencial para a fun¸c˜ao inc´ognita v = v(x) que tem vari´aveis separ´aveis.
Exemplo 1.6 A equa¸c˜ao de Bernoulli y0 = a(x) + b(x)yn com n 6= 0, 1 ´e transform´avel numa
equa¸c˜ao linear com a substitui¸c˜ao v = y1−n. A nova fun¸c˜ao inc´ognita ´e v = v(x).
Exemplo 1.7 Uma equa¸c˜ao diferencial de 1a ordem escrita simbolicamente na forma
g(x, y)dx + h(x, y)dy = 0 (ex)
(onde g e h s˜ao cont´ınuas num dom´ınio dado do plano) diz-se exacta se h´a uma fun¸c˜ao F de classe C1 tal que ∂F∂x = g e ∂F∂y = h. As solu¸c˜oes (y(x)) s˜ao ent˜ao definidas implicitamente por F (x, y) = 0. Uma equa¸c˜ao escrita na forma (ex), n˜ao sendo exacta, por vezes pode transformar-se noutra equivalente, exacta, multiplicando g e h por uma certa fun¸c˜ao n˜ao nula (”factor integrante”). Exemplo 1.8 O sistema de 1a ordem
(1.5) (
x0= h(x, y) y0 = −g(x, y)
diz-se um sistema Hamiltoniano se h´a uma fun¸c˜ao F de classe C1 tal que ∂F ∂x = g e
∂F
∂y = h. As
Exemplo 1.9 Um caso particular importante ´e o da equa¸c˜ao aut´onoma de 2a ordem (que serve
de modelo a muitos problemas de dinˆamica com um grau de liberdade)
u00+ v(u) = 0 (a)
onde V ´e de classe C1 num intervalo dado. A equa¸c˜ao reduz-se ao sistema equivalente
(1.6) (
u0= y y0 = −v(u)
e portanto, com F (u, y) = V (u) +y22, onde V ´e uma primitiva de v, tem-se F (u(t), u0(t)) = const para qualquer solu¸c˜ao u(t). tamb´em se chega rapidamente a esta conclus˜ao multiplicando a equa¸c˜ao por u0(t) e primitivando. `A fun¸c˜ao F chamamos ”energia”e dizemos que o fen´omeno a que (a)
serve de modelo tem ”conserva¸c˜ao de energia”.
Exemplo 1.10 Os sistemas lineares homog´eneos de 2a ordem e coeficientes (reais) constantes, no
plano, s˜ao equivalentes a um do tipo
y0 = Ay onde a matriz A (2x2) ´e a 0 0 b ou a 1 0 a ou a −b b a
(explicaremos porquˆe).
No 1o caso, as solu¸c˜oes x = ceat, y = debt tˆem como traject´orias no plano (x, y) curvas do tipo ya = k xb ou os semi-eixos coordenados. Observaremos o significado do seu comportamento perto
da origem, de acordo com a rela¸c˜ao entre a e b e o sinal destes n´umeros.
No 2o caso, a solu¸c˜ao geral ´e (x, y) = (ceat+ dteat, deat). A solu¸c˜ao que passa em (0, k) no
instante t = 0 ´e x = ty, at = lnyk, e portanto a equa¸c˜ao da sua traject´oria ´e ax = y lnyk. Uma vez mais, observaremos o comportamento das solu¸c˜oes perto da origem.
No 3ocaso, h´a duas solu¸c˜oes independentes (x, y) = eat(cos(bt), sin(bt)) e (x, y) = eat(− sin(bt), cos(bt))
(neste c´alculo recordaremos a exponencial de matriz; ver o exerc´ıcio 7.7), sendo as traject´orias c´ırculos ou espirais em torno da origem.
Exemplo 1.11 A determina¸c˜ao das solu¸c˜oes mon´otonas de y00= f (y, y0) pode fazer-se atrav´es da resolu¸c˜ao de uma equa¸c˜ao diferencial de 1a ordem, em que a inc´ognita ´e a nova fun¸c˜ao ϕ tal que y0= ϕ(y), o que nos conduz a
dϕ dy =
f (y, ϕ) ϕ .
AP ˆENDICE: Redu¸c˜ao de uma matriz real 2x2 `a forma can´onica real
Seja A uma matriz real 2x2. Se A tem valores pr´oprios reais a e b, com a 6= b, os correspondentes vectores pr´oprios ~u, ~v formam uma base do plano. A aplica¸c˜ao linear representada por A tem, na base {~u, ~v} a nova matriz X =
a 0 0 b
e portanto h´a uma matriz invert´ıvel P (matriz de mudan¸ca de base) tal que P−1AP = X. Mesmo que os valores pr´oprios se reduzam a um s´o (a = b) podem existir dois vectores pr´oprios independentes (caso em que todos os vectores s˜ao pr´oprios, j´a que estamos em dimens˜ao 2) e nesse caso vale a mesma conclus˜ao.
Vejamos agora o que se passa quando a = b e h´a apenas um subespa¸co unidimensional com vectores pr´oprios, gerado, digamos, por ~u. Estamos no caso em que a equa¸c˜ao det(A − λI) = 0 tem apenas a solu¸c˜ao λ = a e por isso
det(A − λI) = (λ − a)2. (a)
Proposi¸c˜ao 1.1 Seja B uma matriz 2x2 tal que det(B − λI) = λ2. Ent˜ao B2= 0.
Demonstra¸c˜ao. Simples exerc´ıcio de c´alculo.
Para a matriz B nas condi¸c˜oes da proposi¸c˜ao, existe ~u 6= 0 tal que B~u = 0. Suponhamos que B 6= 0, isto ´e que o n´ucleo de B ´e o subespa¸co unidimensional gerado por ~u. Vamos mostrar que: Proposi¸c˜ao 1.2 Nestas condi¸c˜oes existe um vector ~w tal que B ~w = ~u.
Demonstra¸c˜ao. Consideremos uma base do plano {~u, ~v} que inclui ~u. Existem n´umeros x e y tais que B~v = x~u + y~v e, aplicando B a ambos os membros, resulta 0 = yB~v. Como, pela nossa hip´otese, B~v 6= 0, temos y = 0 e basta ent˜ao tomar ~w = (1/x)~v.
Voltando a (a), concluimos (considerando B = A − aI)que existe um vector ~w tal que (A − aI) ~w = ~u. Assim, na base {~u, ~w} a aplica¸c˜ao linear de matriz A ´e representada por
a 1 0 a
. Finalmente, consideremos o caso em que A tem valores pr´oprios n˜ao reais (complexos conjuga-dos). Considerando a extens˜ao natural de A (como aplica¸c˜ao linear) a C2 podemos ent˜ao afirmar
que existem um complexo x+iy e um vector ~u+i~v (~u, ~v ∈ R2) tais que A(~u, +i~v) = (x+iy)(~u+i~v).
´
E um exerc´ıcio simples reconhecer que ~u, ~v s˜ao R-linearmente independentes. Ent˜ao, como A~u = x~u − y~v, A~v = y~u + x~v
concluimos que, na base {~u, ~v} a aplica¸c˜ao linear de matriz A tem a forma
a −b
b a
.
2
Modelos matem´
aticos onde intervˆ
em equa¸
c˜
oes
diferen-ciais ordin´
arias de tipo simples
A. Velocidade de escape
Um proj´ectil de massa m ´e lan¸cado da Terra verticalmente com velocidade inicial v0; a sua
velocidade v(t) ´e fun¸c˜ao do tempo e, de acordo com a lei de Newton, satisfaz a equa¸c˜ao diferencial dv
dt = − gR2
r2
onde r (fun¸c˜ao do tempo) ´e a distˆancia do proj´ectil ao centro da Terra e R o raio da Terra, e g = GM/R2, sendo G a constante de gravita¸c˜ao e M a massa da Terra. Como v = dr
dt obtemos a
equa¸c˜ao diferencial para v como fun¸c˜ao de r vdv dr = − gR2 r2 . Portanto, v2= 2gR 2 r + v 2 0− 2gR. (a)
A condi¸c˜ao para que v se mantenha sempre positiva ´e v20− 2gR ≥ 0. Como g = 9.81m/seg2R = 6370km, tem-se v
0≥ 11.18km/seg.
A equa¸c˜ao (a) ´e v´alida para outro corpo esf´erico qualquer. Como, de acordo com a teoria da relatividade, qualquer velocidade n˜ao pode exceder a velocidade c da luz, deduzimos a estimativa para que um planeta de massa M admita velocidade de escape:
R > 2GM c2
Este minorante do raio chama-se n´umero de Schwarzschild (nome do f´ısico alem˜ao que primeiro estudou as propriedades dos buracos negros).
B. Fluxo de misturas
Um reservat´orio de grandes dimens˜oes cont´em inicialmente 1000 L de ´agua. No instante t = 0 come¸ca a receber uma solu¸c˜ao de sal com a concentra¸c˜ao de 1 kg/L e ao ritmo constante de 6 L/min. A solu¸c˜ao est´a constantemente a ser homogeneizada e sai do reservat´orio `a raz˜ao de 5 L/min.
Pretende-se determinar a concentra¸c˜ao de sal no reservat´orio em fun¸c˜ao do tempo.
Seja x(t) a massa de sal no reservat´orio em cada instante t ≥ 0. A raz˜ao `a qual o sal sai do reservat´orio, atendendo a que o volume total de fluido no reservt´orio ao fim de t minutos ´e, em Litros, 1000 + (6 − 5)t = 1000 + t, ´e, em kg/min:
5 x(t) 1000 + t.
Assim, x(t) satisfar´a o problema de valor inicial dx
dt = 6 − 5 x(t)
1000 + t, x(0) = 0. C. Modelos populacionais simples
Consideremos uma popula¸c˜ao (de bact´erias, por exemplo), que se reproduzem por divis˜ao celular, de modo que a taxa de crescimento ´e proporcional ao n´umero de indiv´ıduos presentes em cada instante; para simplificar supomos que h´a condi¸c˜oes ambientais, no per´ıodo em causa, para garantir que a taxa de mortalidade ´e zero. O modelo para a evolu¸c˜ao de uma tal popula¸c˜ao p(t) ´e
dp
dt = kp, p(0) = p0
(modelo Malthusiano) onde k ´e uma constante positiva. Se houver a considerar taxa de mortalidade devida apenas a causas naturais, a equa¸c˜ao ´e formalmente a mesma, onde k = k1− k2corresponde
`
a diferen¸ca das duas taxas.
Um outro modelo considera outras causas de mortalidade devidas a falta de recursos ou com-peti¸c˜ao. Como numa popula¸c˜ao de dimens˜ao p h´a p(p − 1)/2 interac¸c˜oes, assume-se ent˜ao que a taxa de mortalidade ´e proporcional a este n´umero, o que conduz `a equa¸c˜ao do modelo log´ıstico
dp
dt = ap − bp
2, p(0) = p 0.
D. Evolu¸c˜ao da temperatura em ambiente restrito, em fun¸c˜ao da temperatura exterior
De acordo com a lei de Newton do arrefecimento a temperatura num edif´ıcio tem uma taxa de varia¸c˜ao proporcional `a diferen¸ca entre as temperaturas exterior e a que se regista no pr´oprio edif´ıcio, devendo contar-se ainda com efeitos adicionais devidos a actividades no interior e ao efeito de aquecimento ou arrefecimento artificiais. Assim, se T (t) ´e a temperatura no edif´ıcio, E(t) a temperatura exterior, e H(t) a taxa resultante de haver a considerar efeitos adicionais, a equa¸c˜ao que traduz a evolu¸c˜ao da temperatura ´e
dT
dt = k(E(t) − T (t)) + H(t). Notemos que H pode tomar valores positivos ou negativos.
E. Dinˆamica de uma part´ıcula
A segunda lei de Newton estabelece que a posi¸c˜ao x(t) de uma part´ıcula em movimento satisfaz a equa¸c˜ao diferencial de segunda ordem
mx00= F (t, x, x0) onde m ´e a massa da part´ıcula e F a for¸ca que lhe est´a aplicada.
Consideremos uma part´ıcula de massa m que se desloca numa dada direc¸c˜ao por ac¸c˜ao de uma for¸ca exterior F (t) vari´avel com o tempo e que est´a sujeita a uma mola el´astica (Figura 1). Pelo menos para desloca¸c˜oes de amplitude n˜ao muito grande, verifica-se experimentalmente que a
for¸ca devida `a energia da mola ´e proporcional `a desloca¸c˜ao x(t) da part´ıcula. Assim, para muitos sistemas deste tipo n˜ao ´e disparatado utilizar o modelo que corresponde `a equa¸c˜ao diferencial
mx00= −kx + F (t).
Aqui k > 0, porque a reac¸c˜ao da mola ´e contr´aria ao sentido da desloca¸c˜ao. Pode haver necessidade de juntar outro termo se, por exemplo, houver amortecimento causado por atrito ou imers˜ao do sistema num l´ıquido viscoso. Nessa altura, ´e comum admitir que a for¸ca correspondente actua de modo proporcional `a velocidade; a equa¸c˜ao que modeliza o fen´omeno seria ent˜ao
mx00+ cx0+ kx = F (t) com k > 0 e c > 0.
Outro modelo particularmente importante ´e o do pˆendulo simples, que ´e uma massa m suspensa de um ponto fixado O por um cabo r´ıgido com massa desprez´avel e comprimento l (Fig. 2). Representaremos por ~e um vector unit´ario com a direc¸c˜ao da for¸ca grav´ıtica que actua a part´ıcula, e por θ o ˆangulo, vari´avel com o tempo, do cabo com e. A partir da segunda lei de Newton escrita na sua forma mais geral (vectorial),
~
F = md~v dt
obtemos, fazendo o produto externo com o vector ~r que corresponde ao cabo: m~r ×d~v dt = mg~r × ~e. Como ~r × d~v dt = d dt(~r × ~v), |~v| = l dθ
dt e ~r × ~e ´e um vector de m´odulo l sin θ, tendo ~r × ~e e ~r × d~v dt
sentidos contr´arios, obtemos a equa¸c˜ao diferencial para θ d2θ
dt2 +
g
l sin θ = 0. O modelo predador-presa de Lotka-Volterra
Consideremos duas esp´ecies, com popula¸c˜oes: x(t) (presa) e y(t) (predador). Assumimos que, havendo recursos de alimenta¸c˜ao dispon´ıveis e ausˆencia de predadores, a esp´ecie presa evolui com crescimento exponencial (taxa de crescimento, que ´e a diferen¸ca entre a taxa de natalidade e a taxa de mortalidade, positiva), mas esta taxa ´e afectada pela presen¸ca de predadores podendo tornar-se negativa. A esp´ecie predador, ao contr´ario, por depender da outra como recurso alimentar, tem taxa de crescimento negativa na ausˆencia de presas, mas esta taxa aumenta na presen¸ca delas. Assim, um modelo para a evolu¸c˜ao de x e y com o tempo ´e dado pelo sistema de primeira ordem
(2.1) (
x0= x(a − by) y0 = y(−c + dx)
onde a, b, c, d s˜ao constantes positivas. Claro que apenas nos interessam solu¸c˜oes com valores n˜ao negativos e ´e interessante observar (aplicando um argumento simples de unicidade) que qualquer solu¸c˜ao (x(t), y(t)) com um valor inicial (x(t0), y(t0)) no 1oquadrante mant´em-se no 1oquadrante
∀t ≥ t0.
Apesar de (2.1) n˜ao ser um sistema Hamiltoniano, tem uma lei de conserva¸c˜ao que permite determinar as traject´orias das solu¸c˜oes no plano (x, y). Efectivamente, as solu¸c˜oes de (2.1) s˜ao obviamente solu¸c˜oes de
e esta equa¸c˜ao tem, como imediatamente se reconhece, o factor integrante xy1. Logo, com F (x, y) = c ln x + a ln y − dx − by
resulta, para qualquer solu¸c˜ao (x(t), y(t)) de (2.1) existe k ∈ R: F (x(t), y(t)) = k.
Daqui concluimos imediatamente que as solu¸c˜oes s˜ao limitadas (e tˆem dom´ınio R, por raz˜oes que explicitaremos). H´a uma solu¸c˜ao positiva constante, x0 ≡ cd, y0 ≡ ab. As traject´orias
corre-spondentes `as solu¸c˜oes n˜ao constantes s˜ao curvas de Jordan que tˆem este ponto no seu interior. Trata-se, portanto, de solu¸c˜oes peri´odicas, como tamb´em justificaremos.
3
An´
alise das solu¸
c˜
oes da equa¸
c˜
ao do pˆ
endulo simples
Comecemos por apresentar dois resultados de car´acter geral sobre prolongamento de certas solu¸c˜oes de equa¸c˜oes diferenciais.
Proposi¸c˜ao 3.1 Seja f uma fun¸c˜ao real cont´ınua e y(t) uma solu¸c˜ao de y00 = f (y) definida em [0, β] tal que y0(β) = 0. Ent˜ao y(t) prolonga-se a [0, 2β] como solu¸c˜ao da mesma equa¸c˜ao, sim´etrica a respeito da recta t = β.
Demonstra¸c˜ao: Basta definir z(t) = y(2β − t) se β ≤ t ≤ 2β; facilmente se verifica (exerc´ıcio) que a nova fun¸c˜ao
w(t) = (
u(t), 0 ≤ t ≤ β z(t), β ≤ t ≤ 2β ´
e de classe C2 e solu¸c˜ao de y00= f (y) em [0, 2β].
Proposi¸c˜ao 3.2 Seja f : D → Rn uma fun¸c˜
ao cont´ınua no dom´ınio D ⊂ Rn e y(t) uma solu¸c˜ao
do sistema y0= f (y) em [0, β] tal que y(0) = y(β). Ent˜ao y(t) tem extens˜ao peri´odica com per´ıodo β que ainda ´e solu¸c˜ao do sistema.
Demonstra¸c˜ao: Que y(t) tem extens˜ao peri´odica de per´ıodo β ´e trivial: para definir tal extens˜ao a R come¸ca-se por definir em cada intervalo [nβ, (n + 1)β] (n ∈ Z) a fun¸c˜ao
yn(t) = y(t − nβ), t ∈ [nβ, (n + 1)β];
em seguida toma-se a fun¸c˜ao Y (t) cuja restri¸c˜ao a cada intervalo [nβ, (n + 1)β] ´e precisamente yn.
Facilmente se conclui que Y est´a bem definida, ´e de classe C1(isto ´e, tem derivadas nos pontos da
forma nβ) e satisfaz a equa¸c˜ao diferencial.
Consideremos a equa¸c˜ao do pˆendulo escrita na forma
u00+ a sin u = 0. (p)
Como j´a vimos, multiplicando por u0 conclui-se que qualquer solu¸c˜ao de (p) verifica a lei de con-serva¸c˜ao
u02
2 + a(1 − cos u) = K
onde K ´e uma constante adequada, que podemos identificar se conhecermos, por exemplo, condi¸c˜oes iniciais u(t0), u0(t0) num instante t0. Se pusermos, para abreviar a nota¸c˜ao
V (u) = 2a(1 − cos u)
ent˜ao a equa¸c˜ao anterior reescreve-se, com um novo significado de K:
u02+ V (u) = K. (1)
Observamos imediatamente que em (1) ´e necessariamente K ≥ 0 e que V (u) ≤ K. Dado que V tem m´aximo 4a e atendendo ao comportamento de V (fig. 3) concluimos tamb´em que, se 0 < K < 4a, ent˜ao a solu¸c˜ao correspondente, se tomar, por exemplo, o valor 0, s´o pode tomar valores no intervalo [−m, m] onde m ∈ (0, π) e V (m) = K.
O caso K = 0. D´a-nos em (1) as solu¸c˜oes constantes u ≡ 0, e de um modo geral u ≡ 2nπ com n inteiro... (que representam a mesma solu¸c˜ao “f´ısica”: o pˆendulo im´ovel na posi¸c˜ao de repouso “mais baixa”).
O caso 0 < K < 4a. Vamos mostrar que as solu¸c˜oes com tais valores de K s˜ao peri´odicas e daremos uma express˜ao para o respectivo per´ıodo. Procuremos condi¸c˜oes iniciais que produzam a solu¸c˜ao de (1): consideremos por exemplo a solu¸c˜ao do PVI u(0) = 0, u0(0) =√K. Ponhamos V (m) = K (com m ∈ (0, π)) como h´a pouco.
Facto 1: A solu¸c˜ao tem derivada positiva em (−α, α), onde α =
Z m
0
ds pV (m) − V (s).
Demonstra¸c˜ao: A solu¸c˜ao verifica (1) e por isso, pelo menos em alguma vizinhan¸ca de zero podemos resolver em ordem a u0 escolhendo a raiz positiva:
u0=pK − V (u) (2)
Observando que (2) tem vari´aveis separ´aveis, podemos proceder por primitiva¸c˜ao, como record´amos no in´ıcio do curso:
Z u
0
ds
pK − V (s) = t + c (3)
onde c ´e uma constante, e como u = 0 corresponde a t = 0 vˆe-se que c = 0. Temos, pois, Z u
0
ds
pK − V (s)= t, −m < u < m (4)
Observemos em seguida que existe o n´umero real1 α =
Z m
0
ds
pV (m) − V (s). (5)
Por conseguinte, a solu¸c˜ao u(t), definida implicitamente por (4), est´a definida em (−α, α) mantendo-se v´alida neste intervalo a equa¸c˜ao (2).
Facto 2: A solu¸c˜ao prolonga-se como fun¸c˜ao cont´ınua, e como solu¸c˜ao, ao intervalo [−α, α]; sendo m = u(α).
Demonstra¸c˜ao: Que u(t) se prolonga continuamente com o valor indicado ´e trivial pela defini¸c˜ao de integral impr´oprio. Da equa¸c˜ao (2) resulta que limt→αu(t) = 0 e por isso existe mesmo u0(α) =
0. (Exerc´ıcio simples, com a regra de Cauchy).
Como estamos em presen¸ca de uma simetria (V ´e par) imediatamente se reconhece que u(t) ´e ´ımpar e em particular
u(±α) = ±m, u0(±α) = 0. (6)
1De facto, o integral converge porque, em virtude de ser V0(m) > 0, a integranda ´e majorada, numa
vizinhan¸ca esquerda de m, por uma fun¸c˜ao do tipo c/√m − u. De lims→mV (m)−V (s)m−s = V0(m) deduz-se
lims→m √ V (m)−V (s) √ m−s =pV 0(m) e da´ı√ 1 V (m)−V (s)≤ 2 √
Derivando (2) em ordem a t reconhece-se que u(t) ´e solu¸c˜ao de (p) em (−α, α) e depois, com o argumento de h´a pouco que envolve a regra de Cauchy, concluimos que na verdade u ´e C2 em
[−α, α] e solu¸c˜ao de (p) neste intervalo.
Facto 3: u ´e prolong´avel ao intervalo [−α, 3α] de modo que o seu gr´afico fique sim´etrico em rela¸c˜ao `a vertical t = α e u ´e ainda solu¸c˜ao de (p).
Demonstra¸c˜ao. Esta afirma¸c˜ao resulta da Proposi¸c˜ao 3.1. Basta definir a nova fun¸c˜ao
y(t) = (
u(t), −α ≤ t ≤ α u(2α − t), α ≤ t ≤ 3α
A solu¸c˜ao assim estendida, que continuaremos a representar por u(t), tem agora a propriedade u(−α) = u(3α), u0(−α) = u0(3α).
Facto 4: u(t) ´e prolong´avel a R como fun¸c˜ao de per´ıodo 4α que ´e solu¸c˜ao de (p).
Demonstra¸c˜ao: Esta afirma¸c˜ao resulta da proposi¸c˜ao 3.2. Por exemplo, no intervalo [3α, 7α] a expres˜ao anal´ıtica do prolongamento ´e u(t − 4α), etc.
Estimativas do per´ıodo: Retomemos uma traject´oria (1) com 0 < K < 4a. Como vimos, o per´ıodo ´e dado por
T = 4 Z m
0
du pV (m) − V (u).
Notemos que V (0) = V0(0) = 0 e V00(0) = 2a > 0. Ent˜ao, dado existe δ tal que 2a − ≤ V00(s) ≤ 2a + if 0 ≤ s ≤ δ, e como V (m − V (u) = Z m u dt Z t 0 V00(s) ds obtemos (a − 2)(m 2− u2) ≤ V (m − V (u) ≤ (a + 2)(m 2− u2), 0 ≤ u < m ≤ δ. Concluimos 4 Z m 0 du p(a + 2)(m2− u2) ≤ T ≤ 4 Z m 0 du p(a − 2)(m2− u2) e portanto lim m→0T = 2π/ √ a.
Nota 1. Os c´alculos para demonstrar o Facto 1 podem ser feitos, alternativamente, de modo ligeiramente diferente: podemos resolver (2) resolvendo primeiro a equa¸c˜ao diferencial para a fun¸c˜ao inversa:
dt du =
1
pK − V (u), 0 ≤ u < m. (7)
que se resolve por simples primitiva¸c˜ao: t = t(u) =
Z u
0
ds
´
E f´acil verificar que a fun¸c˜ao u(t), inversa da que ´e dada por (8), verifica efectivamente (1) em [−α, α], extremo direito inclu´ıdo! Em particular:
u(α) = m, u0(α) = 0. (9)
Nota 2. Os restante racioc´ınio poderia tamb´em ser constru´ıdo repetindo c´alculos an´alogos ao do Facto 1. Com efeito, supondo provados os Factos 1 e 2, e como u00(α) = −a sin u(α) = −a sin m < 0, temos pelo menos numa vizinhan¸ca direita de α,
u0= −pK − V (u). (10)
De (9) e do teorema de unicidade resulta
u(t) = u(2α − t), α ≤ t ≤ 2α. Tem-se portanto
u(2α) = 0, u0(2α) = −√K. (11)
Utilizando ainda (10) e o mesmo c´alculo que conduziu a (8), concluimos que u(t) ´e prolong´avel pelo menos at´e t = 3α, com
u(3α) = −m, u0(3α) = 0 (12)
porque o integral que surge no c´alculo do intervalo de “tempo”necess´ario para que a solu¸c˜ao passe dos valores (11) aos valores (12) ´e exactamente igual ao que j´a surgiu em (8).
Finalmente, partindo desta condi¸c˜ao inicial, e porque pela unicidade se deve ter u(t) = u(4α − t), 3α ≤ t ≤ 4α, reconhecemos que a solu¸c˜ao ´e na verdade prolong´avel at´e t = 4α e que
u(4α) = 0, u0(4α) =√K. Conclu´ımos que
u(4α) = u(0), u0(4α) = u0(0),
ou seja, que a traject´oria da curva t 7→ (u(t), u0(t)) volta ao ponto de partida ap´os o tempo 4α. Nota 3. Estes argumentos aplicam-se, mais geralmente, a equa¸c˜oes redut´ıveis `a forma (1), em que V ´e uma fun¸c˜ao C1 que n˜ao precisa de ser par e tal que
{x| V (x) < K} = (n, m)
com n < 0 < m, V (n) = V (m) = K e V0(n) < 0), V0(m) > 0. Tamb´em neste caso se constr´oi uma solu¸c˜ao peri´odica, n˜ao necessariamente ´ımpar.
O caso K > 4a. Vamos mostrar que neste caso a solu¸c˜ao ´e ilimitada e tem derivada peri´odica.
Por (1), a derivada de u nunca se anula. Ent˜ao ´e sempre positiva ou sempre negativa. Para fixar ideias, suponhamos que ´e sempre positiva (o tratamento do outro caso ´e an´alogo). Resulta que a equa¸c˜ao pode escrever-se na forma equivalente (2) e em particular
0 < δ :=√K − 4a < u0(t) <√K, ∀t ∈ R. Integrando obtemos
Em particular,
lim
t→−∞u(t) = −∞, t→+∞lim u(t) = +∞
e u ´e estritamente crescente e sobrejectiva. Em particular, existe um n´umero T (dependente de K, claro) tal que
u(T ) = 2π. Vamos ent˜ao mostrar que
u(t + T ) = u(t) + 2π ∀t ∈ R. (13)
Na verdade, para t = 0 esta igualdade ´e verdadeira (porque u(0) = 0). E notando que ambos os membros representam solu¸c˜oes de (2) (o primeiro porque a equa¸c˜ao ´e aut´onoma; o segundo porque V tem per´ıodo 2π) conclu´ımos, invocando o teorema de existˆencia e unicidade para o problema de valor inicial, que de facto (13) se verifica. E de (13) resulta logo que u0 tem per´ıodo T .
O caso K = 4a. Neste caso a solu¸c˜ao ou ´e constante ou ´e estritamente crescente e tem-se
lim
t→−∞u(t) = −π, t→+∞lim u(t) = +π
ou ´e estritamente decrescente e tem-se lim
t→−∞u(t) = π, t→+∞lim u(t) = −π.
Sendo K = 4a podemos ter u ≡ 2(n + 1)π, com n ∈ Z e evidentemente u0≡ 0; ou ent˜ao u n˜ao ´e constante. Suponhamos, para fixar ideias, que u(0) = 0, u0(0) =√4a. Ent˜ao u0´e novamente dada por (2) e portanto u ´e dada implicitamente por (4), onde agora m = π. Ora, usando um crit´erio de compara¸c˜ao como atr´as, verificamos que
Z π
0
ds
pV (π) − V (s) = +∞
pelo que a solu¸c˜ao u(t) ´e efectivamente definida por (4) para todo o t real e a afirma¸c˜ao sobre os limites ´e correcta.
Uma solu¸c˜ao deste tipo diz-se heterocl´ınica porque “liga”os equil´ıbrios ±π.
Nota. E ´´ util estudar as traject´orias das curvas t → (u(t), u0(t)) no plano (u, u0) (plano
de fases). As equa¸c˜oes destas curvas s˜ao as da forma (1); por¸c˜oes delas s˜ao gr´aficos da fun¸c˜ao com express˜ao designat´oria (2) onde u ´e vista como vari´avel independente e u0 como a vari´avel dependente. As solu¸c˜oes peri´odicas correspondem ent˜ao a curvas fechadas; o caso K > 4a d´a o gr´afico de uma fun¸c˜ao peri´odica; as heterocl´ınicas s˜ao curvas que ficam num dos semiplanos u0 > 0 ou u0< 0 e ligam (π, 0) a (−π, 0).
4
Problemas de existˆ
encia e unicidade. Extens˜
ao das solu¸
c˜
oes.
Dependˆ
encia de condi¸
c˜
oes iniciais e parˆ
ametros
Lemma 4.1 Se h ´e uma fun¸c˜ao diferenci´avel em [a, b] e existe uma constante K ≥ 0 tal que h0(t) ≤ Kh(t) ∀t ∈ [a, b]
ent˜ao
h(t) ≤ h(a)eK(t−a) ∀t ∈ [a, b]. Demonstra¸c˜ao. Multiplicar por e−Kt...
Come¸camos por considerar o problema de valor inicial
y0 = f (x, y), y(x0) = y0 (P V I)
Suponhamos que f ´e cont´ınua numa faixa I × R, x0∈ I, y0∈ R, e ainda: existe L > 0 tal que
f (x, y) − f (x, ¯y) ≤ L(y − ¯y), ∀x ∈ I, ∀y ≥ ¯y ≥ y0 (1)
(condi¸c˜ao de Lipschitz unilateral).
Proposi¸c˜ao 4.1 Sejam y(x) e z(x) duas solu¸c˜oes de y0 = f (x, y) em I e suponha-se que f satisfaz a condi¸c˜ao de Lipschitz unilateral (1). Ent˜ao
|y(x) − z(x)| ≤ eL(x−x0)|y(x
0) − z(x0)|, ∀x ≥ x0.
Demonstra¸c˜ao. Considerar a fun¸c˜ao h(x) = (y(x) − z(x))2 e aplicar o Lema.
Proposi¸c˜ao 4.2 Sejam y(x) e z(x) duas solu¸c˜oes de y0= f (x, y) em I mas suponha-se agora que f satisfaz a condi¸c˜ao de Lipschitz
|f (x, y) − f (x, ¯y)| ≤ L|y − ¯y|, ∀x ∈ I, ∀y, ¯y ∈ R. (2) Ent˜ao
|y(x) − z(x)| ≤ eL|x−x0||y(x
0) − z(x0)|, ∀x ∈ I.
Proposi¸c˜ao 4.3 Sob a condi¸c˜ao (1), o problema (PVI) tem no m´aximo uma solu¸c˜ao em cada intervalo da forma [x0, x0+ δ] ∩ I.
Proposi¸c˜ao 4.4 Sob a condi¸c˜ao (2), o problema (PVI) tem no m´aximo uma solu¸c˜ao em cada intervalo da forma [x0− δ, x0+ δ] ∩ I.
Recordemos que a solu¸c˜ao de (PVI), pelo menos num intervalo [a, b], com a ≤ x0≤ b, no caso
em que se verifica a condi¸c˜ao de Lipschitz (2), pode ser determinada por aproxima¸c˜oes sucessivas; mais precisamente, como limite do m´etodo iterativo
yn+1= T yn; T y(x) = y0+
Z x
x0
O operador T aplica, obviamente, o espa¸co de Banach C[a, b] em si pr´oprio e, definindo a norma (equivalente)
kyk = sup
x∈[a,b]
e−L0|x−x0||y(x)|
(onde fix´amos L0 > L) resulta que T ´e uma contrac¸c˜ao de C[a, b]. (Explicaremos porquˆe.) O teorema das contrac¸c˜oes garante ent˜ao a existˆencia de um (´unico) ponto fixo que ´e limite do referido m´etodo iterativo.
Quando f est´a definida e ´e cont´ınua num aberto D ⊂ R2 e ´e apenas localmente Lipschitziana,
isto ´e, para cada rectˆangulo compacto I × J ⊂ D existe L > 0 verificando a estimativa (2) ∀x ∈ I, y, ¯y ∈ J , o m´etodo iterativo ainda produz uma solu¸c˜ao de (PVI) mas apenas numa vizinhan¸ca de x0convenientemente pequena. Com efeito: escolha-se a vizinhan¸ca compacta I × J
de (x0, y0), (digamos que J = [y0− β, y0+ β]), estenda-se f |I×J ao dom´ınio I × R (explicaremos
como) de modo que obtemos uma fun¸c˜ao ˜f com a constante de Lipschitz L, e limitada. O m´etodo iterativo funciona para ˜f e produz uma solu¸c˜ao ˜y(x) de ˜y0= ˜f (x, ˜y(x)) em I. Com M := sup ˜f , e definindo α > 0 de modo que α < β/M , imediatamente se comprova que tal solu¸c˜ao, restringida a [x0− α, x0+ α] ´e solu¸c˜ao da equa¸c˜ao original, visto que |˜y(x) − y0| ≤ |
Rx
x0
˜
f (s, ˜y(s)) ds| ≤ M β/M se |x − x0| ≤ α.
Agora olharemos para a equa¸c˜ao que surge em (PVI) como sendo vectorial (sistema de primeira ordem), isto ´e, y ∈ Rn e f sup˜oe-se definida e cont´ınua num aberto D ⊂ Rn+1.
Proposi¸c˜ao 4.5 Se y(x) ´e solu¸c˜ao de y0 = f (x, y) definida em [x0, x1) e existe um compacto
C ⊂ D tal que o gr´afico de y est´a contido em C, ent˜ao y ´e prolong´avel a [x0, x1] como solu¸c˜ao da
equa¸c˜ao.
Demonstra¸c˜ao. Como M = supCf < +∞, o crit´erio de Cauchy implica que limx→x− 1 y(x)
existe... chamemos-lhe y1. Prolongando y(x) com o valor y1 em x = x1 obtemos uma fun¸c˜ao
diferenci´avel em x1 (regra de Cauchy) e imediatamente se verifica (por passagem ao limite) que
satisfaz a equa¸c˜ao diferencial em [x0, x1].
Teorema 4.1 Seja y(x) uma solu¸c˜ao de y0 = f (x, y) definida num intervalo I que n˜ao admite nenhum prolongamento como solu¸c˜ao. (Uma tal solu¸c˜ao diz-se n˜ao prolong´avel.) Seja C um compacto contido em D. Ent˜ao existe T ∈ I tal que ∀t > T , t ∈ I tem-se (t, y(t)) 6∈ C.
Demonstra¸c˜ao. Claro que temos apenas de considerar o caso I = (a, b) com b ∈ R. Consideremos a vizinhan¸ca Cε= {z ∈ Rn+1| dist(z, C) ≤ ε} com ε > 0 tal que Cε⊂ D.
Dado c ∈ I, pela prop. anterior o gr´afico de y|[c,b) n˜ao est´a contido em C nem em Cε. Se n˜ao
existisse T como na afirma¸c˜ao, ent˜ao construir´ıamos uma sucess˜ao
t1< t2< t3< t4< · · · , tn→ b (a)
com a propriedade (usando as no¸c˜oes de sup e inf...):
Ponhamos M = supC
ε\C|f |. Ter´ıamos
ε ≤ |y(t2i) − y(t2i−1)| =
Z t2i
t2i−1
|f (s, y(s))| ds ≤ M (t2i− t2i−1)
que implica que t2i− t2i−1 n˜ao tende para zero e portanto contradiz (a).
Claro que s˜ao v´alidos resultados an´alogos para o extremo esquerdo dos intervalos onde as solu¸c˜oes est˜ao definidas.
Corol´ario 4.2 Se D = I × Rn e y(x) ´e solu¸c˜ao n˜ao prolong´avel com dom´ınio (a, b) e b < sup I, ent˜ao
lim
x→b−|y(x)| = +∞.
H´a resultado an´alogo para o extremo a.
Corol´ario 4.3 Se D = I × Rn e existem fun¸c˜
oes cont´ınuas h, j : I → R tais que |f (x, y)| ≤ h(x)|y| + j(x), ∀(x, y) ∈ D
ent˜ao qualquer solu¸c˜ao n˜ao prolong´avel de y0= f (x, y) tem dom´ınio I.
Vamos agora considerar problemas de valor inicial mais gerais para sistemas que dependem de parˆametros:
y0 = f (x, y, µ) onde y ´e entendido como um vector de Rne f est´
a definida num conjunto D ×Rm
onde D ⊂ Rn+1´e
aberto; as vari´aveis µ ∈ Rmrepresentam parˆametros. Suporemos que f ´e localmente Lipschitziana
relativamente a y, o que significa que ∀(x0, y0) ∈ D h´a um “rectˆangulo”R = [x0−α, x0+α]×B(y0, ρ)
e existe L > 0 tal que
|f (x, y, µ) − f (x, ¯y, µ)| ≤ L|y − ¯y|, ∀(x, y), (x, ¯y) ∈ R, ∀µ ∈ Rm. (3)
Como sabemos, encontrar solu¸c˜ao do problema de valor inicial y0= f (x, y, µ), y(α) = β no intervalo J ´e equivalente a resolver a equa¸c˜ao integral
y(x) = β + Z x
α
f (t, y(t), µ) dt ∀x ∈ J.
Na verdade, vamos agora ocupar-nos do seguinte problema de equa¸c˜oes integrais at´e um pouco mais gerais:
y(x, µ) = g(x, µ) + Z x
α(µ)
f (x, t, y(t, µ), µ) dt ∀x ∈ J. (EI) Aqui suporemos que:
(H) J = [a, b], K ⊂ Rmcompacto, g : J × K → Rn, α : K → J , f : J × J × Rn× K → Rn s˜ao
cont´ınuas, e f ´e Lipschitziana na vari´avel de Rn: existe L > 0 tal que
|f (x, t, y, µ) − f (x, t, ¯y, µ)| ≤ L|y − ¯y|, ∀x, t ∈ J, y, ¯y ∈ Rn, ∀µ ∈ K. (4) Teorema 4.4 Sob a hip´otese (H), a equa¸c˜ao integral (4) tem uma ´unica solu¸c˜ao ∀µ ∈ K e a solu¸c˜ao, y(x, µ), ´e cont´ınua em J × K.
Demonstra¸c˜ao. Consideramos no espa¸co de Banach C(J × K, Rn) a norma (equivalente)
kuk = sup
(x,µ)∈J ×K
|u(x, µ)|e−L0|x−α(µ)|
Vˆe-se ent˜ao facilmente que, chamando T (y) `a fun¸c˜ao (de x e µ) dada pelo 2omembro de (EI), fica
definido um operador T : C(J × K, Rn
) → C(J × K, Rn) que ´e contrac¸c˜ao. Uma solu¸c˜ao de (EI) ´e
o mesmo que um ponto fixo de T . Portanto o resultado ´e consequˆencia imediata do teorema das contrac¸c˜oes.
De modo mais dirigido aos resultados que pretendemos, podemos considerar a solu¸c˜ao de uma equa¸c˜ao integral dependente do parˆametro
λ = (α, β, µ) ∈ J × Rn× K :
y(x, λ) = β + Z x
α
f (t, y(t, λ), µ) dt ∀x ∈ J. (EI0) com a hip´otese
(H0) J = [a, b], K ⊂ Rm
compacto, f : J × Rn
× K → Rn s˜ao cont´ınuas, e f ´e Lipschitziana na
vari´avel de Rn.
Com a mesma t´ecnica obt´em-se ent˜ao
Teorema 4.5 Sob a hip´otese (H0), a equa¸c˜ao integral (EI’) tem uma ´unica solu¸c˜ao ∀α ∈ J, β ∈ Rn, µ ∈ K e a solu¸c˜ao, y(x, λ), ´e cont´ınua em J × J × Rn× K.
Ideia da demonstra¸c˜ao: para cada compacto C ⊂ Rn, aplicar o teorema das contrac¸c˜oes em C(J × J × C × K).
Para estudar a diferenciabilidade da solu¸c˜ao em rela¸c˜ao aos parˆametros acrescentaremos, na-turalmente, a hip´otese
(H00) f tem derivadas parciais cont´ınuas em rela¸c˜ao `as vari´aveis y, µ.
Consideremos, por exemplo, a diferenciabilidade em rela¸c˜ao ao valor inicial β. Podemos ent˜ao “congelar”os valores dos parˆametros µ esquecendo a dependˆencia destes par˜ametros e consideramos simplesmente o problema
y(x, β) = β + Z x
α
f (t, y(t, β)) dt ∀x ∈ J. (EI00)
Teorema 4.6 Sob as hip´oteses (H0) − (H00), a solu¸c˜ao y(x, β) da equa¸c˜ao integral (EI”) ´e dife-renci´avel em rela¸c˜ao `as vari´aveis β; e, pondo
z = ∂y ∂βi
ent˜ao a fun¸c˜ao vectorial z ´e a solu¸c˜ao do problema z(x) = qi+
Z x
α
D f (t, y(t, β))z(t) dt (d)
onde qi ´e a coluna-i da matriz identidade e Df representa a matriz jacobiana de f em rela¸c˜ao `as
vari´aveis y.
Demonstra¸c˜ao. A derivada ser´a calculada num ponto β0= (β0,1, · · · , β0,n) a que corresponde a
solu¸c˜ao bem determinada y(x, β0) de (EI”), mas para n˜ao sobrecarregar a nota¸c˜ao omitiremos o
´ındice 0, esperando que os c´alculos fiquem claros.
Representemos por T (y) a fun¸c˜ao dada pelo segundo membro de (EI”) e por S(y, z) a que ´e representada pelo 2o membro de (d). Fixada uma vizinhan¸ca compacta B do ponto β
0, sabemos
que T ´e contrac¸c˜ao de C(J × B) e, para cada y ∈ C(J × B), R := S(y, ·) ´e-o tamb´em. Fixamos agora y como o ponto fixo de T . Partindo de uma fun¸c˜ao inicial u0∈ C(J × B) mas que seja de
classe C1(por exemplo, uma constante), e de z
0= ∂u∂β0i, o m´etodo iterativo
uk+1= T (uk), zk+1= S(uk, zk) k = 0, 1, 2, · · ·
produz duas sucess˜oes das quais sabemos
uk → y, y = T (y) ∂uk ∂βi = zk. (e) Al´em disso zk+1= R(zk) + S(uk, zk) − S(y, zk)
pelo que, da express˜ao de S resulta
kzk+1− R(zk)k ≤ akkzkk, ak→ 0.
Logo, sendo z o ponto fixo de R,
kzk+1− zk ≤ kR(zk) − R(z)k + akkzkk
e finalmente, sendo γ ∈ (0, 1) a constante de contrac¸c˜ao
donde se conclui (f´acil, mas n˜ao demasiado) zk → z. Por um teorema cl´assico da convergˆencia
uniforme e usando (e) obtemos ∂β∂y
i = z, que ´e o que se pretendia mostrar.
De modo inteiramente an´alogo, considerando apenas a vari¸c˜ao relativa aos µ, se demonstra: Teorema 4.7 Sob as hip´oteses (H0) − (H00), a solu¸c˜ao y(x, µ) da equa¸c˜ao integral (EI’) ´e dife-renci´avel em rela¸c˜ao `as vari´aveis µ; e, pondo
w = ∂y ∂µi
ent˜ao a fun¸c˜ao vectorial w ´e a solu¸c˜ao do problema w(x) =
Z x
α
(D f (t, y(t, µ))w(t) + fµi(t, y(t, µ))) dt
onde Df representa a matriz jacobiana de f em rela¸c˜ao `as vari´aveis y e fµi representa a derivada
de f em ordem a µi.
Observa¸c˜ao A demonstra¸c˜ao segue os passos da anterior, mas em vez da estimativa kzk+1− R(zk)k ≤ akkzkk, ak→ 0
temos neste caso
kzk+1− R(zk)k ≤ akkzkk + bk, ak → 0, bk → 0.
Em termos de equa¸c˜oes diferenciais os teoremas anteriores dizem-nos que: Teorema 4.8 Sob as hip´oteses (H0) − (H00), a solu¸c˜ao y(x, β) do problema
y0= f (x, y), y(α) = β ´
e diferenci´avel em rela¸c˜ao `as vari´aveis β; e, pondo z = ∂y
∂βi
(que se sup˜oe calculada num ponto β0) ent˜ao a fun¸c˜ao vectorial z ´e a solu¸c˜ao do problema linear
z0= Df (x, y(x))z, z(α) = qi
onde qi ´e a coluna-i da matriz identidade e Df representa a matriz jacobiana de f em rela¸c˜ao `as
vari´aveis y (calculada na solu¸c˜ao y(x) que corresponde a β0).
Teorema 4.9 Sob as hip´oteses (H0) − (H00), a solu¸c˜ao y(x, µ) do problema y0= f (x, y, µ), y(α) = β
´
e diferenci´avel em rela¸c˜ao `as vari´aveis µ; e, pondo w = ∂y
(que se sup˜oe calculada num ponto µ0) ent˜ao a fun¸c˜ao vectorial w ´e a solu¸c˜ao do problema linear
w0 = (D f (t, y(t, µ))w + fµi(t, y(t, µ)), w(α) = 0
onde Df representa a matriz jacobiana de f em rela¸c˜ao `as vari´aveis y e fµi representa a derivada
de f em ordem a µi (tudo calculado na fun¸c˜ao y(x) que corresponde ao valor µ0 do parˆametro).
Nos teoremas anteriores trabalhamos com uma fun¸c˜ao f definida num produto I × Rn e glo-balmente Lipschitziana com constante L. Assim, a solu¸c˜ao da equa¸c˜ao surge definida no maior dom´ınio poss´ıvel para a vari´avel independente e para os parˆametros. Vamos agora ver como tratar o caso geral, considerando o caso em que f tem como dom´ınio um aberto D onde ´e cont´ınua e C1 relativamente `as vari´aveis y ∈ Rn.
Examinemos, por exemplo, a dependˆencia das solu¸c˜oes relativamente ao valor inicial β. Seja y0(x) a solu¸c˜ao do PVI y0 = f (x, y), y(α) = β0e admitamos que o intervalo J = [a, b] est´a
inclu´ıdo no seu dom´ınio. O pr´oximo teorema diz em particular que para valores iniciais pr´oximos de β0 a solu¸c˜ao do correspondente PVI est´a definida pelo menos em J e depende continuamente e
diferenciavelmente da condi¸c˜ao inicial:
Teorema 4.10 Consideremos a faixa S = {(x, y) ∈ J × Rn| |y − y0(x)| ≤ }. Ent˜ao, se ´e
suficientemente pequeno e (τ, β) ∈ S, a solu¸c˜ao do problema
y0 = f (x, y), y(τ ) = β (f )
est´a definida tamb´em em J ; esta solu¸c˜ao y(x, τ, β) ´e cont´ınua no conjunto das vari´aveis e dife-renci´avel em ordem `as vari´aveis β; pondo
z = ∂y ∂βi
(que se sup˜oe calculada no ponto β0) ent˜ao a fun¸c˜ao vectorial z ´e a solu¸c˜ao do problema linear
z0= Df (x, y0(x))z, z(α) = qi
onde qi ´e a coluna-i da matriz identidade e Df representa a matriz jacobiana de f em rela¸c˜ao `as
vari´aveis y (calculada na solu¸c˜ao y0(x) que corresponde a β0).
Observa¸c˜ao: y ´e tamb´em diferenci´avel em rela¸c˜ao a τ e n˜ao custa calcular a derivada (como nos outros casos, a partir de uma equa¸c˜ao integral).
Demonstra¸c˜ao. Como o gr´afico de y0 ´e compacto e D ´e aberto, S2 ⊂ D para pequeno, que
fixamos. Fixemos h ∈ C1
(R) tal que 1 ≥ h(t) ≥ 0 ∀t, h = 1 em [0, 2] e h = 0 em [42, ∞). A
fun¸c˜ao
F (x, y) = f (x, y0(x) + h(|y − y0(x)|2)(y − y0(x)))
est´a bem definida em J × Rn, ´e cont´ınua e ´e C1nas vari´aveis y; na verdade, como a sua derivada
parcial em ordem a yi´e n X j=1 ∂f ∂yj
reconhecemos que esta derivada ´e limitada em J × Rn, pois no seu c´alculo s´o intervˆem valores dos ∂f
∂yj no compacto S2. Portanto F ´e Lipschitziana na faixa J × R
n. Em virtude do teorema 4.6, o
problema
y0= F (x, y), y(τ ) = β (F )
tem solu¸c˜ao em J . Representemos por Φ(x, τ, β) esta solu¸c˜ao: sabemos que est´a bem definida e ´e cont´ınua em J × J × Rn.
Por um argumento de compacidade (extrair sucess˜oes convergentes por ex...) prova-se: ∀δ > 0 ∃η > 0 |β − y0(τ )| ≤ η =⇒ |Φ(x, τ, β) − Φ(x, τ, y0(τ ))| ≤ δ
(na implica¸c˜ao est´a subentendido ∀τ, x ∈ J ).
Como (por defini¸c˜ao de Φ) Φ(x, τ, y0(τ )) = y0(x) isto quer dizer que para δ ≤ 2, e com tal
escolha de η, o gr´afico da solu¸c˜ao x 7→ Φ(x, τ, β) est´a contido em S, onde F coincide com f . Se
representarmos por y(x, τ, β) a solu¸c˜ao do problema original (f) sempre que ela existe, podemos pois concluir: para estes valores de η e β, y(x, τ, β) existe e coincide com Φ(x, τ, β). Logo, y tem as mesmas propriedades de regularidade (continuidade, diferenciabilidade) que Φ. E, j´a que as derivadas parciais de F coincidem com as de f nos pontos (x, y0(x)), a demonstra¸c˜ao fica ent˜ao
concluida.
Corol´ario 4.11 Consideremos a solu¸c˜ao y(x, τ, β) de (f ), entendendo-se como n˜ao prolong´avel (como fun¸c˜ao de x). Ent˜ao o seu dom´ınio ´e um aberto de Rn+2.
.
Outra quest˜ao interessante que resulta do que vimos ´e o comportamento dos extremos do intervalo onde a solu¸c˜ao n˜ao prolong´avel est´a definida: se o intervalo de defini¸c˜ao de x 7→ y(x, τ, β) for (a(τ, β), b(τ, β)) podemos afirmar:
Corol´ario 4.12
b(τ, β)) ≤ lim inf
(τk,βk)→(τ,β)
b(τk, βk)
a(τ, β)) ≥ lim sup
(τk,βk)→(τ,β)
a(τk, βk)
.
Pode demonstrar-se um teorema an´alogo para a dependˆencia das solu¸c˜oes relativamente a parˆametros µ que surgem no segundo membro da equa¸c˜ao.
5
Apˆ
endice: Norma de matriz
Dada uma matriz A = [aij] (m × n), chama-se norma de A ao m´aximo das normas das imagens
por A de vectores da bola unit´aria de Rn:
|A| = max
|u|≤1|Au| (1)
Proposi¸c˜ao 5.1 Tem-se
|Az| ≤ |A||z|, ∀z ∈ Rn.
Demonstra¸c˜ao. Para z 6= 0, tem-se, por defini¸c˜ao de |A|, |A(z/|z|)| ≤ |A|, donde a desigualdade. Se z = 0 ambos os membros s˜ao nulos.
Proposi¸c˜ao 5.2 Tem-se (mn)−1/2( X 1≤i≤m, 1≤j≤n a2ij)1/2≤ |A| ≤ ( X 1≤i≤m, 1≤j≤n a2ij)1/2.
Demonstra¸c˜ao. Segunda desigualdade: Dado qualquer vector u ∈ Rn, a componente-i de Au ´e o produto interno do vector li= (ai1, · · · , ain) com u. Assim, aplicando Cauchy-Schwarz no seguinte
c´alculo em que kuk ≤ 1, |Au|2= m X i=1 (li· u)2≤ m X i=1 (|li|2|u|2) ≤ m X i=1 |li|2= m X i=1 n X j=1 a2ij.
Primeira desigualdade: Seja M = max1≤i≤m, 1≤j≤n|aij|. Obviamente
X
1≤i≤m, 1≤j≤n
a2ij ≤ mnM2. (2)
Por outro lado, escolhendo os ´ındices i, j tais que M = |aij|, e considerando o vector ej da base
can´onica, a componente i de Aej´e precisamente aij. Logo, |Aej| ≥ M , e como |A| ≥ |Aej|, resulta,
utilizando (2), |A| ≥ M ≥ (mn)−1/2(P
1≤i≤m, 1≤j≤na2ij)1/2, como se pretendia.
Exemplo: c´alculo de uma norma de matriz. Seja A =
0 1
1 −1
Para cada vector u = (x, y) tem-se |Au|2 = x2+ y2− 2xy. Temos ent˜aao de determinar o m´aximo de x2+ y2− 2xy sob a condi¸c˜ao x2+ y2≤ 1. Como o ´unico ponto cr´ıtico de x2+ y2− 2xy no interior da bola unit´aria ´e (0, 0) e a´ı o valor da fun¸c˜ao ´e 0, n˜ao ´e a´ı que o m´aximo ´e atingido. Pelo m´etodo dos multiplicadores de Lagrange, vemos que o m´aximo ser´a atingido num ponto (x, y) tal que x2+ y2= 1 e existe λ de modo que
x − y + 2λx = 0, 2y − x + λy = 0 (3)
Multiplicando a primeira equa¸c˜ao por x, a segunda por y e adicionando, obtemos x2− 2xy + 2y2+ λ = 0
pelo que o m´aximo procurado ´e −λ. Para que o sistema (3) tenha solu¸c˜oes n˜ao triviais (as que procuramos) ´e necess´ario e suficiente que o seu determinante seja nulo: λ2+ λ − 1 = 0. Portanto
o valor m´aximo procurado ´e (1 +√5)/2. A norma da matriz ´e q
6
Um exemplo de aplica¸
c˜
ao: solu¸
c˜
ao peri´
odica de uma equa¸
c˜
ao
de primeira ordem n˜
ao aut´
onoma
Consideremos a equa¸c˜ao (escalar)
y0= h(t)y − y3 (1)
sob a hip´otese seguinte:
(A) h ´e uma fun¸c˜ao cont´ınua, positiva, de per´ıodo T > 0. ´
E ´obvio que (1) tem a solu¸c˜ao peri´odica trivial y ≡ 0. No entanto vamos poder demonstrar: Proposi¸c˜ao 6.1 Sob a hip´otese (A), (1) tem pelo menos uma solu¸c˜ao positiva com per´ıodo T . Demonstra¸c˜ao. Vamos considerar a aplica¸c˜ao P : β 7→ y(T, β) onde y(·, β) ´e a solu¸c˜ao de (1) que satisfaz a condi¸c˜ao inicial y(0, β) = β. ´E claro que P (0) = 0 e que o dom´ınio desta solu¸c˜ao depende de β, em princ´ıpio, mas vamos ver que para os valores com os quais vamos trabalhar o dom´ınio estende-se na verdade at´e +∞, por isso o c´alculo em T estar´a permitido.
Como h ´e limitada, digamos |h| ≤ M , podemos fixar d > 0 tal que h(t)d − d3 < 0 ∀t > 0.
Ent˜ao, se β ≤ d, a solu¸c˜ao y(·, β) n˜ao pode atingir o valor d para t > 0, pois no primeiro instante t0> 0 com y(t0, β) = d ter-se-ia y0(to, β) ≥ 0.
Por outro lado, provaremos a seguir que P0(0) > 1, o que permite afirmar que existe c > 0 suficientemente pequeno tal que P (c) > c; y(·, c) tem de se manter positiva (por unicidade) e abaixo de d; logo, se β ∈ [c, d] y(·, β) est´a definida em [0, +∞) e P aplica [c, d] em si pr´oprio. Pelo teorema de Bolzano existe β ∈ [c, d] tal que P (β) = β, ou y(T, β) = y(0, β). Pelo argumento do exerc´ıcio 5.4 y ´e peri´odica com per´ıodo T .
Calculemos ent˜ao P0(0). Temos P0(β) = ∂β∂y(T, β) e z = ∂y∂β ´e, como fun¸c˜ao de t, solu¸c˜ao de z0 = (h(t) − 3y(t, β)2)z, z(0) = 1.
Como pretendemos P0(0), temos y(·, 0) ≡ 0 e a equa¸c˜ao que nos interessa ´e z0= h(t)z, z(0) = 1.
A solu¸c˜ao ´e z(t) = eR0th(s) ds e, j´a que h > 0, vem z(T ) > 1, o que conclui a demonstra¸c˜ao.
O significado de P0(0) > 1, para a solu¸c˜ao nula, ´e que esta ´e “inst´avel”: Solu¸c˜oes com valores iniciais arbitrariamente pr´oximos de zero tendem a afastar-se desta solu¸c˜ao.
Por outro lado, a solu¸c˜ao cuja existˆencia acabamos de demonstrar ´e “est´avel”e isso est´a rela-cionado com o facto de ser P0(β) > 1. Na verdade, pelos c´alculos anteriores, P0(β) = z(T ) = eR0T(h(s)−3y(s,β)
2) ds
. Podemos calcular RT
0 y(s, β)
2ds mesmo sem a express˜ao expl´ıcita da solu¸c˜ao
y:
y0(t, β)
y(t, β) = h(t) − y(t, β)
2
e integrando e usando a periodicidade, Z T 0 y(t, β)2dt = Z T 0 h(s) ds. Logo, P0(β) = e−2R0Ty(s,β) 2ds .
7
Sistemas lineares (revis˜
ao)
Consideramos nesta sec¸c˜ao sistemas de equa¸c˜oes diferenciais lineares de 1aordem, isto ´e, da forma
(7.1) y0 = A(x)y + b(x)
onde A(x) ´e uma matriz n×n e b(x) uma fun¸c˜ao com valores em Rn, ambas cont´ınuas num intervalo
I. (Dizer que x 7→ A(x) ´e cont´ınua equivale a dizer que as fun¸c˜oes reais x 7→ aij(x) s˜ao cont´ınuas
para i, j = 1, · · · , n, ou equivalentemente, em virtude do apˆendice anterior, limx→x0|A(x) −
A(x0)| = 0).
Como
|A(x)y − A(x)¯y| ≤ |A(x)||y − ¯y|
e |A(x)| tem m´aximo em qualquer compacto⊂ I, os resultados da sec¸c˜ao anterior permitem-nos dizer:
Teorema 7.1 Dados α ∈ I e β ∈ Rn problema de valor inicial y0 = A(x)y + b(x), y(α) = β
tem uma e uma s´o solu¸c˜ao definida em todo o intervalo I. Esta solu¸c˜ao, que representaremos por y(x, α, β) ´e cont´ınua e na verdade de classe C1 no conjunto das vari´aveis; por exemplo, z = ∂y
∂βi ´e
a solu¸c˜ao do problema
z0= A(x)z z(α) = qi.
Al´em disso, em qualquer intervalo compacto J ⊂ I a solu¸c˜ao y(·, α, β) ´e o limite uniforme em J da sucess˜ao de iteradas
yk+1(x) = β +
Z x
α
[A(t)yk(t) + b(t)] dt
iniciado com uma fun¸c˜ao arbitr´aria y0∈ C(J ).
Seja S o conjunto das solu¸c˜oes do sitema homog´eneo
y0 = A(x)y (h)
em I. ´E um subconjunto do espa¸co vectorial das fun¸c˜oes (com valores em Rn) definidas em I.
Imediatamente se reconhece que S ´e ele pr´oprio espa¸co vectorial (verifica¸c˜oes triviais) e, fixado α, a aplica¸c˜ao
β 7→ y(·, α, β) : Rn→ S ´
e isomorfismo de espa¸cos vectoriais. Este facto ´e simples mas n˜ao banal: est´a envolvido o teorema de existˆencia e unicidade que acabamos de enunciar. Observe-se em particular que
y(·, α, 0) ≡ 0 e que podemos afirmar:
Teorema 7.2 S ´e um espa¸co vectorial de dimens˜ao n.
A par de sistemas, podemos considerar equa¸c˜oes lineares de ordem n na forma normal: u(n)+ an−1(x)u(n−1)+ · · · + a1(x)u0+ a0(x)u = f (x)
(onde a inc´ognita u tem valores reais) as quais se reduzem a um sistema da forma (7.1), com a substitui¸c˜ao y1= u: (7.2) y10 = y2 y20 = y3 · · · yn−10 = yn
yn0 = −a0(x)y1− · · · − an−1(x)yn+ f (x)
Os resultados obtidos para o sistema convertem-se imediatamente em resultados para a equa¸c˜ao, uma vez que h´a uma correspondˆencia bijectiva entre solu¸c˜oes u desta e solu¸c˜oes (u, u0, · · · , un−1)
daquele.
Dadas n solu¸c˜oes y1, · · · , yn de (h), abreviamos as n equa¸c˜oes y0i = A(t)yi introduzindo a
matriz
Y (x) = [y1(x), · · · yn(x)]
(que tem a fun¸c˜ao vectorial yi(x) na coluna-i): e podemos escrever, pela defini¸c˜ao de produto de
matrizes,
Y0= A(x)Y.
Diremos que Y ´e matriz fundamental de (h) se as suas colunas constituem uma base de S. Do teorema anterior resulta
Corol´ario 7.3 Y ´e matriz fundamental de S se, e s´o se, os vectores yi(α) constituem uma base
de Rn.
Em particular, podemos fixar a matriz fundamental tal que yi(α) ´e a base can´onica qi, isto ´e:
Y (α) = I. Dizemos ent˜ao que se trata da matriz especial de (h) relativa ao ponto α e representamo-la por
X(x, α)
para indicar a dependˆencia de α. Assim, X(x, α) ´e a solu¸c˜ao do problema matricial de valor inicial X0= A(x)X, X(α, α) = I.
Se C ´e uma matriz constante, e Y (x) ´e fundamental, Y (t)C ´e ainda matriz de solu¸c˜oes de (h): basta observar que a sua coluna-(i) ´e combina¸c˜ao linear das de Y (t), com coeficientes iguais aos da coluna-(i) de C. Reciprocamente, se Z(x) ´e outra fundamental, existe uma matriz constante C tal que
Z(x) = Y (x)C. Com efeito, verifica-se imediatamente que
(Y−1Z)0= Y−1Z0− Y−1Y0Y−1Z = Y−1AZ − Y−1AY Y−1Z = 0. Em particular temos, ∀x, α, ¯α ∈ I:
X(x, ¯α) = X(x, α)X(α, ¯α)
Proposi¸c˜ao 7.1 A solu¸c˜ao do problema de valor inicial y0= A(x)y, y(α) = β ´
e dada por y(x) = X(x, α)β.
Quando a matriz A(x) ´e uma matriz constante A, o sistema ´e aut´onomo e podemos fixar α = 0 sem perda de generalidade. As aproxima¸c˜oes sucessivas
yk
dadas no teorema 6.1 calculam-se facilmente, partindo de y0≡ β, por indu¸c˜ao:
yk(x) = β + Axβ +
A2x2
2! β + · · · + Akxk
k! β Podemos ent˜ao concluir que a solu¸c˜ao ´e
y(x) = lim k→∞[I + Ax + A2x2 2! + · · · + Akxk k! ]β.
A convergˆencia ´e uniforme relativamente a β nos compactos, e por isso podemos mesmo dizer que existe o limite da sucess˜ao de matrizes
lim k→∞[I + Ax + A2x2 2! + · · · + Akxk k! ]
que, como j´a sabemos, se chama exponencial de Ax e se representa por eAx:
eAx= I + Ax +A 2x2 2! + · · · + Akxk k! + · · · = ∞ X k=0 Akxk k! .
Dada uma matriz Y (x) cujas colunas s˜ao solu¸c˜oes de (h), chamamos Wronskiano dessa matriz ao seu determinante W (x). Utilizando a regra de deriva¸c˜ao do produto prova-se:
Proposi¸c˜ao 7.2
W (x) = W (x0)e Rx
x0tr A(t) dt, ∀x, x0∈ I
onde tr designa o tra¸co de matriz.
Recordemos finalmente a f´ormula de varia¸c˜ao das constantes:
Proposi¸c˜ao 7.3 Sendo X(x) a matriz especial de (h) em α, a solu¸c˜ao do problema y0 = A(x)y + b(x), y(α) = β ´ e ¯ y(x) = X(x)β + Z x α X(x)X(t)−1b(t) dt.
No caso de coeficientes constantes, v´arias t´ecnicas para calcular eAxpermitem obter a express˜ao
expl´ıcita das solu¸c˜oes de (h).
Vamos referir uma maneira de obter as solu¸c˜oes que, em vez de usar a forma can´onica de Jordan, utiliza em alternativa o seguinte resultado de ´Algebra linear: se a matriz A tem os valores pr´oprios distintos λj, j = 1, · · · , k, com as respectivas multiplicidades alg´ebricas nj, ent˜ao o espa¸co
n-dimensional decomp˜oe-se em soma directa de n´ucleos de potˆencias das A − λj:
Rn(Cn) = N (A − λ1)p1⊕ · · · ⊕ N (A − λk)pk, pj≤ nj, dim N (A − λj)pj = nj.
Assim, mesmo que n˜ao exista uma base de vectores pr´oprios de A, todo o vector do espa¸co, β, se decomp˜oe numa soma de k “vectores pr´oprios generalizados”:
β = β1+ · · · + βk, βj ∈ N (A − λj)pj.
Ent˜ao eAxβ =Pk
j=1e Axβ
j e cada parcela tem o aspecto
eAxβj= eλjxe(A−λjI)xβj = eλjx[ pj−1 X i=0 xi(A − λ jI)i i! ]βj.
Para a equa¸c˜ao homog´enea de ordem n pode fazer-se uma afirma¸c˜ao mais expl´ıcita: conside-rando
u(n)+ an−1u(n−1)+ · · · + a1u0+ a0u = 0 (eh)
se as raizes do seu polin´omio caracter´ıstico, λj, j = 1, · · · , k, tˆem as multiplicidades alg´ebricas nj,
ent˜ao h´a uma base de solu¸c˜oes de (eh) formada por fun¸c˜oes da forma xieλjx, i = 0, · · · , n
j− 1, j = 1, · · · , k.
A express˜ao encontrada acima permite-nos:
1) observar que o sistema tem uma base de solu¸c˜oes da forma eλjx(P
jl(x)), l = 1, · · · nj
onde cada Pjl(x) ´e um polin´omio de grau < nj e cujos coeficientes s˜ao vectores do espa¸co
n−dimensional;
2) obter uma estimativa para a norma da matriz eAxem termos dos valores p´oprios de A, para x ≥ 0.
Com efeito, comecemos por observar que
Lemma 7.1 Existe uma constante K tal que para cada vector β e as suas projec¸c˜oes βj tem-se
|βj| ≤ K|β|.
Demonstra¸c˜ao. Basta considerar uma soma directa com duas parcelas Cn = M ⊕ N e a
cor-respondente decomposi¸c˜ao ´unica para cada β = γ + δ. Em primeiro lugar notemos que cada subespa¸co ´e fechado, porque se {f1, · · · , fp} ´e base do ortogonal de M , ent˜ao M ´e o conjunto dos
Se n˜ao existisse C > 0 tal que |γ| ≤ C|β| ∀β, ent˜ao construir´ıamos uma sucess˜ao βm= γm+ δm
tal que |γm| > m|βm|. Ent˜ao
1 m γm |γm| > βm |γm| ; βm |γm| = γm |γm| + δm |γm| .
Passando a uma subsucess˜ao (porque a bola unit´aria ´e compacta) podemos supˆor γm
|γm|
→ γ, |γ| = 1
e como tamb´em sabemos que βm
|γm| → 0 resulta que
δm
|γm| → −γ. Ent˜ao γ 6= 0 e γ ∈ M ∩ N , uma
contradi¸c˜ao.
Vamos ent˜ao estabelecer a estimativa.
Designemos D = maxj,i|(A − λjI)i| e p = max pj− 1. Temos
|eAxβ j| ≤ |eλjx| D (1 + x + · · · + xp)|βj| e, com ρ = max Reλj e C = kDK |eAxβ| ≤ Ceρx(1 + x + · · · + xp)|β|. Finalmente, atendendo a que, dado qualquer n´umero a > ρ se tem
∃x0 ∀x ≥ x0 eρx(1 + x + · · · + xp) < eax
concluimos que, aumentando se necess´ario a constante C,
|eAxβ| ≤ Ceax|β| ∀x ≥ 0. (∗)
Vejamos como a partir da mesma express˜ao se pode fazer o c´alculo da exponencial em alguns casos simples.
Exemplo: Seja A =−1 −4
9 6
. A tem um ´unico valor pr´oprio (λ = 5) de multiplicidade 2. Ent˜ao, como necessariamente R2= N (A − 5)2, temos ∀β ∈ R2
eAtβ = e5t[I + t(A − 5)]β, ou seja
eAt= e5t1 − 6t −4t 9t 1 + 6t
e a partir daqui podemos encontrar uma base de solu¸c˜oes do sistema y0= Ay, por exemplo eAtqi,
i = 1, 2: obtemos as fun¸c˜oes vectoriais e5t1 − 6t 9t , e5t −4t 1 + 6t .
Alternativamente, poder´ıamos ter encontrado um vector pr´oprio 2 −3 , em seguida um vector w tal que (A − 5)w = 2 −3 ; o que conduz a w = 0 −1/2
, e ent˜ao, pondo estes dois no lugar de β na f´ormula geral obtemos a base de solu¸c˜oes
e5t 2 −3 , e5t t 2 −3 + 0 −1/2 .
Assim, a solu¸c˜ao geral do sistema homog´eneo com a matriz A ´e (usando por exemplo esta ´
ultima base)
x = 2ae5t+ 2bte5t, y = (−3a −1 2b)e
5t− 3bte5t
onde a e b s˜ao constantes arbitr´arias. Imediatamente se reconhece que lim t→±∞ y(t) x(t) = limt→±∞ y0(t) x0(t) = − 3 2.
Al´em disso, quando t → −∞ e x < 0 (isto ´e, b < 0) y(t)x(t) tende para −32 por valores maiores, como se vˆe analisando o sinal de y(t)x(t)+32. Isto mostra que, no esquema das traject´orias de solu¸c˜oes no plano xy, as traject´orias ficam tangentes `a recta 3x + 2y = 0 na origem e de modo tal que no 2o quadrante est˜ao abaixo da recta e no 4o quadrante est˜ao acima.
Exemplo: Seja A uma matriz 3 × 3 com um ´unico valor pr´oprio real λ. Da representa¸c˜ao acima resulta que
R3= N (A − λ)3
visto que o valor de p que corresponde a λ ´e ≤ `a multiplicidade (3). Logo, para todo o vector β
eAxβ = eλx[ 2 X i=0 xi(A − λI)i i! ]β.
Exemplo: Para a matriz A =
0 1
−1 −2d
onde 0 < d < 1, que tem valores pr´oprios λ = −d + ip e o seu conjugado ¯λ (onde p =√1 − d2), temos a decomposi¸c˜ao
C2= N (A − λ) ⊕ N (A − ¯λ).
Como N (A − λ) ´e formado pelos vectores (u, v) tais que (d − ip)u = v e N (A − ¯λ) ´e formado pelos vectores (u, v) tais que (d + ip)u = v, a decomposi¸c˜ao de um vector qualquer (x, y) para esta soma directa ´e x y = u v + s t com u = (d + ip)x − y 2ip , v = (d2+ p2)x − (d − ip)y 2ip , s = y − (d − ip)x 2ip , t = (d + ip)y − (d2+ p2)x 2ip .
Assim, conclui-se que eAt= e
−dt(cos pt +d psin pt) 1 pe −dtsin pt −1 pe −dtsin pt e−dt(cos pt −d psin pt) !
Consideremos o sistema linear homog´eneo (h), com a matriz A(x) definida e cont´ınua em I = [a, ∞).
Dizemos que a solu¸c˜ao trivial (isto ´e, zero) ´e est´avel, assintoticamente est´avel, ou inst´avel, se, respectivamente:
todas as solu¸c˜oes s˜ao limitadas em I; todas as solu¸c˜oes tˆem limite 0 quando x → +∞; existe pelo menos uma solu¸c˜ao n˜ao limitada.
Se X(x) ´e uma matriz especial no ponto a, e se zero ´e est´avel, ent˜ao claro que h´a uma constante K > 0 tal que |X(x)| ≤ K ∀x ≥ a; qualquer solu¸c˜ao y(x) satisfaz ent˜ao |y(x)| = |X(x)β| ≤ K|β|; assim, se zero ´e est´avel qualquer solu¸c˜ao toma valores arbitrariamente pequenos (em norma) desde que a sua condi¸c˜ao inicial β seja suficientemente pequena.
Quando a matriz A ´e constante, o que observ´amos acima a respeito da forma das solu¸c˜oes do sistema e a estimativa (*) permitem reconhecer imediatamente:
dizer que a origem ´e assintoticamente est´avel ´e o mesmo que dizer que todos os valores pr´oprios de A tˆem partes reais negativas;
dizer que a origem ´e est´avel ´e o mesmo que dizer que todos os valores pr´oprios de A tˆem partes reais ≤ 0 e se algum deles, λj, ´e imagin´ario puro, ent˜ao correspondem-lhe nj vectores pr´oprios
linearmente independentes, isto ´e, pj = 1 (de modo que na express˜ao de eAxβj os polin´omios em
x s˜ao na realidade apenas vectores constantes);
dizer que a origem ´e inst´avel significa que n˜ao se verifica nenhuma das condi¸c˜oes anteriores, por outras palavras, ou h´a um valor pr´oprio com parte real positiva ou ou algum deles, λj, tem parte
real nula mas n˜ao possui nj vectores pr´oprios linearmente independentes (o respectivo pj ´e > 1).
8
Estabilidade: lineariza¸
c˜
ao
Dado um sistema de equa¸c˜oes de primeira ordem y0= f (t, y)
com f definida e cont´ınua em [0, +∞) × Rn, localmente Lipschitziana em ordem `a vari´
avel de Rn,
e dada uma sua solu¸c˜ao y0(t) com dom´ınio [0, +∞),
- dizemos que esta solu¸c˜ao ´e est´avel (relativamente a t = 0) se ∀ > 0 ∃ δ > 0 tal que |β − y0(0)| < δ ⇒ y(·, β) tem dom´ınio [0, +∞) e |y(t, β) − y0(t)| < ∀t ≥ 0.
- dizemos que esta solu¸c˜ao ´e assintoticamente est´avel se ´e est´avel e al´em disso ∃δ > 0 tal que |β − y0(0)| < δ ⇒ lim
t→+∞|y(t, β) − y0(t)| = 0.
Observa¸c˜ao. Suponhamos que h´a pelo menos uma solu¸c˜ao definida em J = [a, b]. O argumento do teorema 4.10 mostra que as aplica¸c˜oes
β 7→ y(b, a, β) e
γ 7→ y(a, b, γ)
s˜ao cont´ınuas; como s˜ao obviamente inversas uma da outra trata-se de homeomorfismos (entre conjuntos de “valores iniciais”’ em t = a e t = b, respectivamente).
Em particular, daqui concluimos que a defini¸c˜ao de estabilidade tal como a demos ´e equivalente `
a defini¸c˜ao relativamente a b em que b > 0 ´e fixado mas arbitr´ario, isto ´e, podemos substituir o instante a que ´e referido o valor inicial por outro instante qualquer.
Vejamos por exemplo que se y0 ´e est´avel relativamente a b tamb´em o ´e relativamente a 0. Por
hip´otese ∀ > 0 ∃ δ > 0 tal que
|γ − y0(b)| < δ ⇒ |y(t, b, γ) − y0(t)| < ∀t ≥ b.
Mas em virtude da nossa observa¸c˜ao anterior e do teorema 4.10 existe η > 0 tal que |β − y0(0)| < η ⇒ |y(t, 0, β) − y0(t)| < min(δ, ) ∀t ∈ [0, b].
Como y(t, b, y(b, 0, β)) = y(t, 0, β) conclui-se que com este valor de η se realiza a condi¸c˜ao de estabilidade relativamente a t = 0.
Para um sistema linear
y0= A(t)y + b(t) ´
e imediato reconhecer que a estabilidade (assint.) de qualquer das suas solu¸c˜oes equivale `a estabili-dade (assint.) da solu¸c˜ao 0 para o correspondente sistema homog´eneo y0 = A(t)y e que a defini¸c˜ao
de estabilidade que acabamos de introduzir ´e equivalente `a que demos na parte final da sec¸c˜ao anterior.
Vamos estudar a estabilidade da solu¸c˜ao nula para um sistema da forma
y0= Ay + g(t, y) (1)
onde
(H) A ´e matriz constante, g est´a definida e ´e cont´ınua em [0, +∞) × Rn, sendo localmente
Lipschitziana em ordem `a vari´avel de Rn e tem-se lim
x→0
g(t, x) |x| = 0
uniformemente em t ≥ 0. (Em particular, g(t, 0) ≡ 0 e 0 ´e solu¸c˜ao de (1)!)
Teorema 8.1 (Estabilidade) Suponhamos que todos os valores pr´oprios da matriz A tˆem parte real negativa. Ent˜ao sob a hip´otese (H) a solu¸c˜ao nula de (1) ´e assintoticamente est´avel.
Demonstra¸c˜ao. Sabemos que as solu¸c˜oes de (1) tˆem a representa¸c˜ao y(t, β) = eAtβ +
Z t
0
eA(t−s)g(s, y(s, β)) ds. Utilizaremos agora a estimativa, que demonstr´amos na sec¸c˜ao anterior,
|eAtβ| ≤ Ce−kt|β| ∀β ∈ Rn
onde, de acordo com a hip´otese, podemos fixar −k < 0 e, obviamente, C > 1. Em virtude de (H) existe δ tal que
|z| < δ ⇒ |g(t, z)| ≤ k
2C|z| ∀t ≥ 0. (∗)
Afirmamos ent˜ao:
|β| < < δ
2C ⇒ |y(t, β)| ≤ Ce
−kt
2 ∀t ≥ 0. (a)
Basta, evidentemente, demonstrar (a) para concluir. Ora, em virtude de (*), para todos os valores de t tais que |y(t, β)| < δ,
|y(t, β)| ≤ C|β|e−kt+ C Z t 0 e−k(t−s) k 2C|y(s, β)| ds, |y(t, β)|ekt≤ C|β| +k 2 Z t 0 eks|y(s, β)| ds. Pela desigualdade de Gronwall, e porque estamos a considerar |β| < ,
|y(t, β)|ekt≤ Cekt 2
o que mostra que |y(t, β)| ≤ Ce−kt2 <δ
2. Assim, em qualquer intervalo onde y(·, β) esteja definida,
os valores desta solu¸c˜ao mantˆem-se efectivamente na bola de raio δ, legitimando a aplica¸c˜ao da estimativa (*) nos c´alculos; a consequˆencia ´e que a solu¸c˜ao existe em [0, ∞) e obtivemos (a).
Teorema 8.2 (Instabilidade) Suponhamos que a matriz A ´e n˜ao tem valores pr´oprios no eixo imagin´ario e tem pelo menos um valor pr´oprio com parte real positiva. Ent˜ao, sob a hip´otese (H), a solu¸c˜ao nula de (1) ´e inst´avel.
Demonstra¸c˜ao. Vamos fazer a demonstra¸c˜ao sob a hip´otese suplementar (na pr´atica n˜ao restri-tiva) seguinte: g(t, y) prolonga-se a [0, +∞) × Cn com as mesmas propriedades.
Come¸camos por utilizar o seguinte resultado de ´Algebra Linear (que detalharemos abaixo): a matriz A ´e triangul´avel, isto ´e, existe uma matriz (em geral complexa) invert´ıvel T tal que T−1AT = B ´e triangular superior (bij = 0 se i > j) e na diagonal aparecem os valores pr´oprios de
A: λj, j = 1, · · · , n, com as poss´ıveis repeti¸c˜oes. Al´em disso, dado > 0, podemos supˆor |bij| <
se i < j.
Fazendo a mudan¸ca de vari´avel y = T z, como existem constantes c1, c2 tais que c1|z| ≤ |y| ≤
c2|z|, basta mostrar que a solu¸c˜ao nula do sistema
z0= Bz + T−1g(t, T z) (2)
´
e inst´avel. Suponhamos ent˜ao, de acordo com a hip´otese, Reλi ≥ c > 0 para i = 1, · · · , k e
Reλi ≤ −c < 0 se i = k + 1, · · · , n. Dada uma solu¸c˜ao de (2), multiplicando as primeiras k