• Nenhum resultado encontrado

Risco Sistêmico e Grandes Desvios

N/A
N/A
Protected

Academic year: 2021

Share "Risco Sistêmico e Grandes Desvios"

Copied!
65
0
0

Texto

(1)

Universidade Federal do Rio de Janeiro

Risco Sistˆ

emico e Grandes Desvios

Rafael Jorge Pereira

Rio de Janeiro 2014

(2)

Rafael Jorge Pereira

Risco Sistˆemico e Grandes Desvios

Disserta¸c˜ao de Mestrado apresentada ao Programa de P´os-gradua¸c˜ao em Estat´ıstica do Instituto de Matem´atica da Universidade Federal do Rio de Janeiro como parte dos requisitos necess´arios `a obten¸c˜ao do t´ıtulo de Mestre em Estat´ıstica.

Orientador:

Maria Eul´alia Vares

Departamento de M´etodos Estat´ısticos Instituto de Matem´atica

Universidade Federal do Rio de Janeiro

(3)

Folha de exame

Disserta¸c˜ao de Mestrado apresentada ao Programa de P´os-gradua¸c˜ao em Estat´ıstica do Instituto de Matem´atica da Universidade Federal do Rio de Janeiro como parte dos requisitos necess´arios `a obten¸c˜ao do t´ıtulo de Mestre em Estat´ıstica.

Banca examinadora:

Maria Eul´alia Vares

Instituto de Matem´atica - UFRJ

Glauco Valle da Silva Coelho Instituto de Matem´atica - UFRJ

Valentin Sisko

(4)
(5)

Agradecimentos

Agrade¸co a Deus por sua infinita gra¸ca e por sempre me cercar de pessoas incr´ıveis e brilhantes, a minha orientadora Maria Eul´alia por todo o apoio, dedica¸c˜ao, incentivo e por sua infinita paciˆencia. Agrade¸co a minha fam´ılia que com muito amor ´e sempre muito generosa e compreensiva nas horas em que mais preciso, a todo corpo docente pelo apoio e credibilidade, em espec´ıfico, aos conselhos da Alexandra M. Schmidt nas aulas de inferˆencia durante minha gradua¸c˜ao pois este trabalho ´e fruto dos seus conselhos. Agrade¸co a cada membro da minha turma de mestrado pela contribui¸c˜ao direta ou indireta neste trabalho, em espec´ıfico, aos amigos Eduardo Ferioli e Fernando Arag˜ao. Enfim, a todos os amigos muito obrigado.

(6)

Resumo

Um dos principais problemas da teoria de processos estoc´asticos ´e descrever o comportamento de um sistema composto por um grande n´umero de componentes interagindo entre si. Este ´e um ensaio baseado no artigo de J. Garnier, G. Papanicolaou e T. Yang [9] que estuda o risco sistˆemico em um modelo de difus˜oes interagentes do tipo campo m´edio, que no limite macrosc´opico apresenta duas regi˜oes de equil´ıbrio est´avel.

O objetivo desta disserta¸c˜ao ´e estudar o modelo de difus˜oes interagentes proposto, analisando a solu¸c˜ao do modelo, a rela¸c˜ao entre seus parˆametros e os grandes desvios com respeito a m´edia emp´ırica do sistema. Al´em disso, vamos propor uma extens˜ao do modelo, que separa o sistema em dois grupos, de modo que, a taxa de revers˜ao `a m´edia de cada componente com seu pr´opio grupo seja maior que a taxa de revers˜ao `a m´edia de cada componente com o grupo vizinho.

(7)

Abstract

One of main problems of stochastic system theory is to describe the behaviour of a system comprised of a large number of interacting subsystems. This is an essay based on the article by J. Garnier, G. Papanicolaou and T. Yang [9] proposed in analysis of systemic risk in a mean field type model of interacting diffusions which exhibits two stable equilibria states in the macroscopic limit.

The aim of this work is to study the proposed model of interacting diffusions, analyzing model solution, the relationship between the parameters and the large deviations with respect to the average empirical of system. Moreover, we propose an extension of the model which separates the system into two groups. The mean reversion rate of each component with respect to its own group is greater than the mean reversion rate of each component with the other group.

(8)

Sum´

ario

Introdu¸c˜ao 1

1 Preliminares 3

1.1 Processos Estoc´asticos . . . 3

1.1.1 Propriedades do Movimento Browniano . . . 5

1.2 Integra¸c˜ao Estoc´astica . . . 6

1.3 Equa¸c˜oes Diferenciais Estoc´asticas . . . 10

2 Estudo do modelo 15 2.1 O Modelo . . . 15

2.2 Modelo Simplificado . . . 16

2.3 An´alise do Modelo . . . 22

2.3.1 Limite de Campo M´edio . . . 23

2.4 Modelo Heterogˆeneo . . . 36

2.5 Modelo de Grupos . . . 38

2.5.1 An´alise do Modelo de Grupos . . . 38

3 Grandes Desvios e Simula¸c˜oes 41 3.1 Grandes Desvios . . . 41

3.2 Grandes Desvios via Campo M´edio . . . 42

3.3 Simula¸c˜oes N´umericas . . . 45

3.3.1 Modelo Simplificado . . . 45

3.3.2 Modelo Principal . . . 48

3.3.3 Modelo de Grupos . . . 50

Apˆendice A: 53 3.4 C´odigo da Simula¸c˜ao em Matlab . . . 53

(9)

Lista de Figuras

1.1 σ = 1, θ = 1, µ = 0, N = 10. . . 12 1.2 σ = 1, θ = 6, µ = 0, N = 10. . . 13 1.3 σ = 1, θ = 1, µ = −1, N = 50. . . 13 1.4 σ = 1, θ = 6, µ = −1, N = 50. . . 14 1.5 σ = 1, θ = 6, µ = 1, N = 10. . . 14 3.1 σ = 1, θ = 1, N = 10, h = 0.1. . . 46 3.2 σ = 1, θ = 6, N = 10, h = 0.1. . . 46 3.3 σ = 1, θ = 1, N = 50, h = 0.1. . . 47 3.4 σ = 1, θ = 6, N = 50, h = 0.1. . . 47 3.5 σ = 1, θ = 6, N = 100, h = 0.1. . . 48 3.6 σ = 1, θ = 1.5, N = 100, h = 0.1. . . 49 3.7 σ = 1, θ = 6, N = 100, h = 0.1. . . 49 3.8 σ = 1, θ = 1.5, N = 100, h = 0.1. . . 50 3.9 σ = 1, θ = 6, N = 100, h = 0.1. . . 50 3.10 σ = 1, θ = 6, ¯θ = 1.5, N = 100, h = 0.1. . . 51 3.11 σ = 1, θ = 6, ¯θ = 0.5, N = 100, h = 0.1. . . 51 3.12 σ = 1, θ = 6, ¯θ = 1.5, N = 100, h = 0.1. . . 52 3.13 σ = 1, θ = 6, ¯θ = 0.5N = 100, h = 0.1. . . 52

(10)

Introdu¸

ao

Risco sistˆemico ´e o risco que um sistema composto por um grande n´umero de componentes interconectados possui de que grande parte dos componentes falhem ao mesmo tempo ou de modo sucessivo causando a falˆencia de todo sistema. E uma´ caracter´ıstica conjunta de sistemas interconectados, de modo que, avaliar o risco de um ´

unico componente n˜ao permite dizer nada sobre o risco sistˆemico.

No mercado financeiro, em geral, esse evento ocorre quando o mau desempenho de uma ou mais institui¸c˜oes financeiras afeta o desempenho dos demais agentes interconectados gerando uma rea¸c˜ao em cadeia que afeta todo sistema e o leva ao colapso. Nesta disserta¸c˜ao vamos discutir o modelo proposto por J. Garnier, G. Papanicolaou e T. Yang [9] na avalia¸c˜ao do risco sistˆemico em um sistema de difus˜oes interagentes composto por um grande n´umero de componentes. As componentes deste modelo possuem trajet´orias cont´ınuas, duas regi˜oes de equil´ıbrio que no contexto do mercado financeiro s˜ao denotadas por regi˜ao normal e regi˜ao de falha e interagem entre si via campo m´edio, cada componente interage com a m´edia das demais. Associado a essas intera¸c˜oes definimos um parˆametro de revers˜ao `a m´edia denotado por θ que determina o grau no qual cada componente ´e influenciado pela m´edia do conjunto. Al´em disso, as componentes deste sistema movem-se sob a influˆencia de um campo (for¸ca) dado pela derivada do potencial V (y) = 14y4−1

2y

2. O potencial V (y) ´e modulado por um parˆametro

de estabiliza¸c˜ao h e cada componente sofre ainda a a¸c˜ao de um ru´ıdo aleat´orio. Note que a fun¸c˜ao V (y) possui uma estrutura biest´avel que garante um comportamento metaest´avel do sistema em torno da regi˜ao “normal” {+1} e da regi˜ao de “falha” {−1} pontos de m´ınimo dessa fun¸c˜ao. Isto ´e, as componentes do sistema tendem a permanecer em torno do {+1} ou {−1}.

(11)

O objetivo deste trabalho ´e analisar o comportamento do sistema para um n´umero grande de componentes, mais especificamente, queremos calcular a probabilidade de ocorrer um evento sistˆemico, isto ´e, um evento no qual grande parte do sistema transita de uma regi˜ao considerada normal para uma regi˜ao de falha. O principal interesse ser´a calcular a probabilidade de transi¸c˜ao da m´edia emp´ırica de uma vizinha¸ca de {+1} para uma vizinhan¸ca {−1} (e vice-versa). No entanto, o modelo adotado na descri¸c˜ao do sistema possui um termo n˜ao linear que n˜ao nos permite calcular a m´edia emp´ırica de forma direta e por esse motivo, vamos analisar o processo a valores medida e expressar a m´edia emp´ırica em fun¸c˜ao da medida emp´ırica [3].

Neste contexto, pode - se interpretar risco sistˆemico como um grande desvio da m´edia emp´ırica do sistema cuja probabilidade pode ser determinada a partir dos resultados obtidos no artigo de Dawson e Gartner [5]. Ademais, ser´a mostrado que ao contr´ario do que podemos esperar esta probabilidade independe da taxa de revers˜ao `a m´edia θ.

(12)

Cap´ıtulo 1

Preliminares

1.1

Processos Estoc´

asticos

Um processo estoc´astico {Xt; t ≥ 0} ´e uma estrutura constitu´ıda de um espa¸co de

probabilidade (Ω,F , P ), um conjunto de ´ındices definidos em [0, ∞), e uma aplica¸c˜ao X : [0, ∞) × Ω → R, tal que para cada t ∈ [0, ∞), a fun¸c˜ao X(t, .) : Ω → R ´e uma vari´avel aleat´oria, isto ´e, {w : X(t, w) ∈ Γ} ∈ F para todo Γ ∈ B(R). Ou seja, um processo estoc´astico ´e uma cole¸c˜ao de vari´aveis aleat´orias definidas em um espa¸co de probabilidade (Ω,F , P ) indexadas por t ∈ [0, ∞), convenientemente interpretado como o tempo.

Diremos que o processo ´e mensur´avel se esta fun¸c˜ao for conjuntamente mensur´avel, ou seja, B([0, ∞) × F )-mensur´avel. Para cada ω ∈ Ω, a fun¸c˜ao X(., ω) : [0, ∞) → R ´e chamada trajet´oria amostral, ou realiza¸c˜ao do processo em ω. Nesta disserta¸c˜ao, vamos tratar de uma classe de processos estoc´asticos que possuem trajet´orias cont´ınuas em t.

Define-se Ft = σ(X(s, .) : s 6 t) como a σ-´algebra gerada pelo processo at´e o

instante t, ou seja, (Ft)t≥0 ´e uma filtra¸c˜ao, isto ´e, Ft⊂Ft+s ∀ t, s ∈ [0, ∞). E dizemos

que o processo X = (Xt)t≥0 ´e (Ft) - adaptado se Xt forFt - mensur´avel para todo t.

Desta forma, dados s, t ∈ [0, +∞),

(13)

´

e a lei da vari´avel aleat´oria X(t+s) condicionada ao processo at´e o instante t, (X(s, .))s6t.

A seguir vamos definir uma classe de processos estoc´asticos que ser´a muito utilizada nesta disserta¸c˜ao, conhecido como movimento browniano ou processo de Wiener.

Defini¸c˜ao 1 Uma cole¸c˜ao de vari´aveis aleat´orias (Bt, 0 ≤ t ≤ T ) definida no espa¸co de

probabilidade (Ω,F , P ) ´e chamado de movimento browniano padr˜ao em R, se: (a) P (B0 = 0) = 1;

(b) Para cada m ≥ 1, cada 0 < t0 < t1 < . . . < tm ≤ T , Bti+1 − Bti, 0 ≤ i ≤ m − 1

s˜ao vari´aveis aleat´orias independentes e Bti+1−Bti possui distribui¸c˜ao normal com m´edia

zero e variˆancia (ti+1− ti), ou seja, de densidade

1 p2π(ti+1− ti) exp  − 1 2(ti+1− ti) y2  , y ∈ R;

(c) Para cada ω ∈ Ω, a trajet´oria (caminho) amostral t → Bt(ω) ´e cont´ınua em [0, T ].

Observe que as condi¸c˜oes (a) e (b) da defini¸c˜ao anterior determinam as distribui¸c˜oes finito dimensionais do processo. Tal defini¸c˜ao pode ser substitu´ıda por:

(b)0 Dado m ≥ 1, e 0 < t0 < t1 < . . . < tm ≤ T , a distribui¸c˜ao de (Bt1, . . . , Btm),

denotada por pt1,...,tm, ´e a distribui¸c˜ao normal em R

m com m´edia zero e matriz de

covariˆancia Σ := ((ti∧ tj)i,j), i.e

pt1,...,tm(dx) = 1 (2π)m/2(detΣ)1/2exp  −1 2hx, Σ −1 xi  dx,

onde h., .i denota o produto interno euclidiano usual em Rd.

A defini¸c˜ao ´e estendida a (Bt)0≤t≤∞ de forma usual [13] (Karatzas, Cap´ıtulo 2, p´agina

47). Observe que para 0 = t0 < t1 < . . . < tm < ∞, os incrementos {Bti − Bti−1}

i=m i=1

s˜ao independentes e a distribui¸c˜ao de Bti − Bti−1 depende de ti e ti−1 somente atrav´es

da diferen¸ca ti − ti−1, ou seja, Bti − Bti−1 possui distribui¸c˜ao normal com m´eia zero e

(14)

1.1.1

Propriedades do Movimento Browniano

O movimento browniano da maneira que foi definido possui certas propriedades tais como o princ´ıpio da reflex˜ao e a propriedade de martingalas.

(1) Princ´ıpio da reflex˜ao. Dado a > 0 e seja Ta= inf{t : Bt= a}.

P (Ta< t) = 2P (Bt > a).

Esta propriedade decorre da propriedade forte de Markov (ver defini¸c˜ao 6.2 p´agina 81 [13]).

Demonstra¸c˜ao 1 Observe que se Bs passa pelo ponto “a” em algum instante de tempo

s < t, pela propriedade forte de Markov (ver defini¸c˜ao 6.2 p´agina 81 [13]), temos que Bt− BTa independe do que ocorreu at´e o tempo Ta. Pela simetria da normal e pelo fato

de P (Bu = a) = 0 para u > 0, temos

P (Ta< t) = P (Ta < t, Bt> a) + P (Ta< t, Bt < a)

= 2P (Ta < t, Bt> a).

Usando o fato de {Bt> a} ⊂ {Ta< t}, podemos reescrever essa equa¸c˜ao como

P (Ta < t) = 2P (Ta< t, Bt> a) = 2P (Bt> a).

C.Q.D.

Antes de enunciar a pr´oxima propriedade, vamos definir o que ´e uma martingala.

Defini¸c˜ao 2 Dados um espa¸co de probabilidade (Ω,F , P ), uma filtra¸c˜ao {Ft; t ≥ 0} e

um processo estoc´astico cont´ınuo (Xt), dizemos que (Xt) ´e uma martingala com respeito

a (Ft) se e somente se:

(i) (Xt) ´e (Ft) − adaptado, i.e, Ft− mensur´avel ∀ t,

(15)

(2) Propriedade de Martingalas. O movimento browniano ´e uma martingala:

E[Bt|FsB] = Bs ∀ 0 ≤ s ≤ t. q.c.

onde (FsB) ´e a filtra¸c˜ao gerada pelo movimento browniano, isto ´e, para cada s, FtB = σ(Bs: 0 ≤ s ≤ t) ´e a sigma ´algebra gerada at´e o tempo s.

Demonstra¸c˜ao 2 Sabemos que se s < t, Bt − Bs ´e independente de FsB e possui

distribui¸c˜ao normal com m´edia zero e variˆancia (t − s). Portanto,

E[Bt|FsB] = E[(Bt− Bs) + Bs|FsB] = E[Bt− Bs|FsB] + Bs

= 0 + Bs = Bs ∀ 0 ≤ s ≤ t, q.c.

1.2

Integra¸

ao Estoc´

astica

Nesta se¸c˜ao vamos resumir os conceitos b´asicos de integra¸c˜ao estoc´astica no sentido de Itˆo. Boas referˆencias para uma abordagem mais detalhada de integra¸c˜ao estoc´astica tanto no caso geral quanto no caso espec´ıfico do movimento browniano podem ser encontradas em Durrett [4] e Karatzas [13].

O movimento browniano desempenha um papel fundamental na constru¸c˜ao de uma importante classe de processos de Markov em R, tamb´em chamado de processos de difus˜ao. Objetivamente falando, estes processos correspondem a processos de Markov com trajet´orias cont´ınuas que podem ser descritas em termos de suas caracter´ısticas locais. A integra¸c˜ao estoc´astica R0tϕ(s)dBs ´e uma ferramenta fundamental na descri¸c˜ao

de tais processos. Note que, como as trajet´orias do movimento browniano s˜ao de varia¸c˜ao ilimitada no intervalo [0, t] (ver Teorema 9.18, p´agina 110 [13]), n˜ao podemos interpretar essa integral no sentido de Stieltjes. Tamb´em sabemos que com probabilidade um a fun¸c˜ao t → Bt(ω) n˜ao possui derivada. Portanto, a integral de “

Rt

0 ϕ(s)dBs” n˜ao pode

(16)

No entanto, podemos definir essa integral para uma determinada classe de fun¸c˜oes fazendo uso da natureza estoc´astica do movimento browniano. Definida inicialmente por K. Itˆo, essa integral ficou conhecida como a integral estoc´astica de Itˆo. Detalhamos a seguir a constru¸c˜ao da integral de Itˆo.

Seja (Bt) um movimento browniano padr˜ao unidimensional definido no espa¸co de

probabilidade (Ω,F , P ) e seja {Ft, t ≥ 0} uma filtra¸c˜ao sobre esse espa¸co tal que:

(i) F0 cont´em todos os conjuntos de probabilidade nula, para F∞, onde

F∞:= σ(∪t≥0Ft) ´e a menor σ-´algebra de F que cont´em todos os Ft.

(ii) FtB ⊂Ft para cada t, onde FtB = σ(Bs : 0 ≤ s ≤ t).

(iii) E[Bt− Bs|Fs] = 0 q.c., E[(Bt− Bs)2|Fs] = t − s q.c. para 0 ≤ s ≤ t.

O pr´oximo passo ´e definir a classe dos ‘integrandos’. Uma vez definida a filtra¸c˜ao com as propriedades acima, diremos que o processo ´e adaptado ou, (Ft)-adaptado.

Seja T > 0 fixo e H0,T definido a seguir

H0,T =



ϕ : [0, T ] × Ω → R, (B[0, T ] × F∞) − mensur´avel, adaptado,

e |||ϕ|||2 0,T = E Z T 0 |ϕs|2ds  < +∞  .

Dizemos que dois processos quaisquer ϕ e ψ s˜ao indistingu´ıveis se |||ϕ − ψ|||2

0,T = 0.

Ademais, H0,T pode ser visto como um subespa¸co de L2([0, T ] × Ω,B[0, T ] × F∞) onde,

|||.|||0,T ´e uma restri¸c˜ao da norma L2 no espa¸co de medida produto (Lebesgue × P ).

(17)

de equivalˆencia dos integrandos definida anteriormente).

Seja S o subespa¸co dos processos simples (e previs´ıveis) em H0,T

ϕ(t, .) = ξ0(.)I[0,t1](t) + Σ

m−1

i=1 ξi(.)I(ti,ti+1](t), (1.1)

onde, 0 = t0 < . . . < tm = T ´e uma parti¸c˜ao finita (determin´ıstica), ξi´eFti−mensur´avel

e limitada, para i = 1, . . . , m, e IB denota a fun¸c˜ao indicadora do conjunto B.

Para ϕ ∈ S, definimos o processo (ϕ ◦ B)t, 0 ≤ t ≤ T , por

(ϕ ◦ B)t= Σi

−1

i=1 ξi(Bti+1 − Bti) + ξi∗(Bt− Bti∗),

onde i∗ = i∗(t) ´e dado por ti∗ ≤ t ≤ ti+1. Equivalentemente,

(ϕ ◦ B)t= Σm−1i=0 ξi(Bt∧ti+1 − Bt∧ti), (1.2)

para 0 ≤ t ≤ T . As propriedades a seguir podem ser verificadas para todo ϕ, ˜ϕ ∈ S: (a) As trajet´orias t → (ϕ ◦ B)t s˜ao cont´ınuas;

(b) ((cϕ + ˜c ˜ϕ) ◦ B)t= c(ϕ ◦ B)t+ ˜c( ˜ϕ ◦ B)t q.c., para c, ˜c ∈ R;

(c) (ϕ ◦ B)t´e uma (Ft) − martingala;

(d) (ϕ ◦ B)t( ˜ϕ ◦ B)t−

Rt

0 ϕuϕ˜udu ´e uma (Ft) − martingala. Em particular,

E(ϕ ◦ B)2T = |||ϕ|||20,T. (1.3)

Inicialmente, esta integral ´e definida para uma classe de processos simples (e previs´ıveis) em S. No entanto, nosso objetivo ´e expandir a integral para o espa¸co H0,T.

Essa expans˜ao pode ser feita baseando-se no seguinte lema (ver Lema 2.18 [18]). Lema 1.1 S ´e denso em H0,T para |||.|||20,T.

(18)

Note que, estamos trabalhando com martingalas a tempo cont´ınuo e pela desigualdade cl´assica de Kolmogorov (que pode ser estendida do caso discreto para o caso cont´ınuo) [13] temos que, dado ϕ, ˜ϕ ∈ S e y > 0,

P  sup 0≤t≤T |(ϕ ◦ B)t− ( ˜ϕ ◦ B)t| ≥ y  ≤ 1 y2|||ϕ − ˜ϕ||| 2 0,T. (1.4)

Pelo Lema 1.1, dado ϕ ∈ H0,T e n ≥ 1 podemos tomar ϕ(n) ∈ S tal que |||ϕ(n)−

ϕ|||0,T ≤ 1/n3 e pela desigualdade (1.4) temos que

P  sup 0≤t≤T (ϕn◦ B)t− (ϕ(n+1)◦ B)t ≥ 1 n2  ≤ n4 2 n3 2 = 4 n2 (1.5)

Seja An o evento do lado esquerdo da equa¸c˜ao (1.5). Se aplicamos o lema de

Borel-Cantelli [11], temos que a probabilidade P (An infinitas vezes) = 0. Podemos definir

N = [Aninfinitas vezes] e ent˜ao, P (N ) = 0 de modo que N ∈F0. Em Ω \ N a sequˆencia

(ϕ(n)◦ B)

t(ω) converge uniformemente em t. Portanto, podemos definir

(ϕ ◦ B)t(ω) =    limn→∞(ϕ(n)◦ B)t(ω) se ω /∈ N, 0 se ω ∈ N.

Devido `a convergˆencia uniforme segue que a fun¸cao t → (ϕ ◦ B)t(ω) ´e cont´ınua, para

cada ω. Al´em disso, (ϕ ◦ B)t(ω) ´e (Ft)-mensur´avel e para cada t,

lim

n→∞(ϕ

(n)◦ B)

t= (ϕ ◦ B)t na norma L2.

Observe que o surgimento de ds na defini¸c˜ao de |||.|||20,T ´e devido ao fato de (Bt)2− t

(19)

geral de martingalas a tempo cont´ınuo. No caso geral a classe de integrandos ´e mais restrita.

Seja ϕ ∈ H0,T. A ideia da prova do Lemma 1.1 ´e mostrar a existˆencia de ϕ(k) ∈ S

k ≥ 1, tal que lim k→∞ Z T 0 E ϕs− ϕks 2 ds = 0, (1.6)

onde assumimos que ϕ ´e limitada e que ϕt= 0 para t ≤ 0.

Defini¸c˜ao 3 Dado T > 0 e ϕ ∈ H0,T, o processo (ϕ ◦ Bt : 0 ≤ t ≤ T ) ´e chamado de

integral estoc´astica de Itˆo da fun¸c˜ao ϕ. A nota¸c˜ao mais usual ´e dada por R0T ϕsdBs.

1.3

Equa¸

oes Diferenciais Estoc´

asticas

Nesta se¸c˜ao vamos introduzir os conceitos b´asicos da teoria de equa¸c˜oes diferenciais estoc´asticas necess´arios para o desenvolvimento desta disserta¸c˜ao. Uma boa referˆencia ´e Durrett [4] c´apitulo 5.

De modo geral, as equa¸c˜oes diferenciais estoc´asticas s˜ao representadas da maneira a seguir:

dx(t) = b(x(t))dt + σ(x(t))dB(t), t ≥ 0; x(0) = 0.

Em geral, dizemos que uma equa¸c˜ao diferencial estoc´astica possui solu¸c˜ao forte no sentido de Itˆo se tivermos um processo (xs) que com probabilidade um satisfa¸ca a seguinte

(20)

x(t) = Z t 0 b(x(s))ds + Z t 0 σ(x(s))dB(s), ∀ t ≥ 0.

Defini¸c˜ao 4 Um processo estoc´astico {x(t) : t ≥ 0} ´e chamado de um processo de Ornstein-Uhlenbeck [17] se satisfaz a seguinte equa¸c˜ao diferencial estoc´astica:

dx(t) = −θ(x(t) − µ)dt + σdB(t) (1.7)

As constantes param´etricas s˜ao: • θ > 0 ´e a taxa de revers˜ao `a m´edia; • µ ´e a m´edia do processo;

• σ ´e a magnitude das flutua¸c˜oes do movimento browniano.

A solu¸c˜ao exata do processo de Ornstein-Uhlenbeck com condi¸c˜ao inicial x(0) ´e dada via formula de Itˆo, substituindo x(t) pela fun¸c˜ao auxiliar f (x, t) = xeθt e integrando de

0 a t temos:

x(t) = x(0)e−θt+ µ(1 − e−θt) + σ Z t

0

e−θ(t−s)dB(s), 0 ≤ t < ∞, (1.8)

onde x(0) ´e a condi¸c˜ao inicial.

Al´em do processo (x(t)) ser gaussiano e markoviano ele possui certas caracter´ısticas muito interessantes. Para uma discuss˜ao da motiva¸c˜ao f´ısica por tr´as do processo de Ornstein-Uhlenbeck uma refˆerencia cl´assica ´e Nelson [17]. Ademais, observe que se fixarmos um valor para m´edia µ podemos analisar o comportamento do processo para diversos valores de θ.

Em geral, esperamos que quanto maior o parˆametro θ mais concentrado em torno da m´edia se encontra o sistema. A seguir simulamos o comportamento de N processos

(21)

independentes para diversos valores de θ.

(22)

Figura 1.2: σ = 1, θ = 6, µ = 0, N = 10.

(23)

Figura 1.4: σ = 1, θ = 6, µ = −1, N = 50.

(24)

Cap´ıtulo 2

Estudo do modelo

2.1

O Modelo

A seguir vamos analisar um modelo de difus˜oes interangentes (proposto por [9]) composto por N componentes (agentes) que interagem entre si via campo m´edio. Denotaremos por xj(., .) : [0, T ] × Ω → R a trajet´oria (caminho) amostral de cada

componente j, de modo que, cada xj(t) interage com a m´edia ¯x(t) = N1

PN

j=1xj(t). A

evolu¸c˜ao dinˆamica do sistema possui as seguintes caracter´ısticas:

• O sistema apresenta um comportamento metaest´avel em torno dos pontos {+1} e {−1}.

• O sistema possui um mecanismo de estabiliza¸c˜ao. • O sistema sofre a a¸c˜ao de um ru´ıdo aleat´orio.

• O sistema apresenta um parˆametro de revers˜ao `a m´edia que determina o grau de intera¸c˜ao de cada componente com a m´edia do sistema.

• As condi¸c˜oes iniciais s˜ao xj(0) = 0 ∀ j = 1, . . . , N .

Um modelo que possui as caracter´ısticas desejadas, isto ´e, intera¸c˜oes via campo m´edio e com as condi¸c˜oes estabelecidas acima pode ser descrito matematicamente por um sistema de equa¸c˜oes diferenciais estoc´asticas de Itˆo da seguinte forma:

(25)

dxj(t) = −hU (xj(t))dt + θ(¯x(t) − xj(t))dt + σdBj(t), ∀j = 1 . . . , N, (2.1)

onde:

• U (x) = V0(x) = x3− x ´e o campo (for¸ca) do sistema.

• h ´e o parˆametro de estabiliza¸c˜ao do sistema. • θ > 0 representa o parˆametro de revers˜ao `a m´edia. • σ2 > 0 representa o coeficiente de difus˜ao.

• {Bj(t)}Nj=1 ´e uma sequˆencia de movimentos browniano padr˜ao e independentes.

A evolu¸c˜ao do sistema ´e portanto caracterizada pelas condi¸c˜oes iniciais (x1(0), . . . , xN(0)), pelos parˆametros (h, σ, θ) e pelo tamanho N do sistema. Nosso

objetivo ´e analisar a m´edia emp´ırica ¯x(t) do conjunto atrav´es do sistema de equa¸c˜oes diferenciais estoc´asticas (2.1).

Observe que esse sistema possui um termo n˜ao linear dado por U (x) que dificulta a an´alise direta da m´edia emp´ırica e nos conduz a analisar a medida emp´ırica do sistema, ou seja, vamos analisar processos que tomam valores no espa¸co das medidas de probabilidade M1(R).

Antes de entrar nos detalhes do modelo principal vamos analisar um modelo linear mais simples e esclarecer as principais diferen¸cas entre esses modelos, estabelecendo um paralelo entre os principais pontos de interesse do modelo principal a partir do modelo linear mais simples.

2.2

Modelo Simplificado

Nesta subse¸c˜ao vamos analisar um modelo com caracter´ısticas semelhantes ao modelo principal, por´em, com uma estrutura bem mais simples. Basicamente temos um sistema

(26)

linear difusivo onde cada componente interage com o conjunto de modo semelhante ao modelo principal, ou seja, as intera¸c˜oes ocorrem via campo m´edio. No entanto, diferentemente do modelo principal que apresenta uma estrutura biest´avel e cujo interesse ´e analisar um grande desvio da m´edia, isto ´e, a probabilidade de transi¸c˜ao de uma regi˜ao normal para uma regi˜ao de falha, nosso objetivo ser´a analisar a probabilidade (da m´edia emp´ırica) de um grande n´umero de componentes ultrapassar um determinado n´ıvel pr´e-estabelecido. No contexto adotado nesta disserta¸c˜ao a probabilidade deste evento ser´a chamada de risco sistˆemico.

De modo an´alogo ao modelo inicialmente proposto queremos analisar este processo e determinar a probabilidade de ocorrˆencia de um evento sistˆemico. Em particular estamos interessados em analisar o decaimento de um grande n´umero de componentes a um determinado n´ıvel “η < 0” em um intervalo de tempo finito [0, T ]. O principal objetivo desta se¸c˜ao ´e analisar o risco sistˆemico em um modelo linear mais simples utilizando como estat´ıstica o limite de campo m´edio do sistema e determinar uma estimativa de grandes desvios para este modelo.

Neste caso o sistema difusivo com intera¸c˜oes via campo m´edio pode ser descrito matematicamente por um sistema de equa¸c˜oes diferenciais estoc´asticas de Itˆo da seguinte forma

dxj(t) = θ(¯x(t) − xj(t))dt + σdBj(t), j = 1, . . . , N

xj(0) = 0,

(2.2)

onde

• xj(t) representa a trajet´oria de cada componente do sistema para j = 1 . . . , N .

• θ > 0 representa o parˆametro de revers˜ao `a m´edia. • σ2 > 0 representa o coeficiente de difus˜ao.

(27)

• {Bj(t)}Nj=1 ´e uma sequˆencia de movimentos browniano padr˜ao e independentes.

Observa¸c˜ao: Nas simula¸c˜oes a condi¸c˜ao inicial utilizada ´e xj(0) = −1, pois note

que o interesse principal ser´a avaliar as transi¸c˜oes entre as regi˜oes {+ξ} em torno de {+1} para {−ξ} em torno de {−1} e vice-versa.

Queremos analisar o risco sistˆemico atrav´es da estat´ıstica ¯x(t) no limite quando N → ∞. Podemos reescrever a equa¸c˜ao (2.2) da seguinte forma:

dxj(t) = θ " 1 N N X i=1 xi(t) − xj(t) !# dt + σdBj(t), j = 1, . . . , .

Aplicando o somat´orio em “j” e dividindo por “N ” em ambos os lados temos

d 1 N N X j=1 xj(t) ! = d σ N N X j=1 Bj(t) ! , 1 N N X j=1 xj(t) = σ N N X j=1 Bj(t).

Logo, a m´edia emp´ırica do conjunto possui a mesma distribui¸c˜ao da m´edia de N movimentos brownianos independentes com coeficiente de difus˜ao σ2, sendo portanto um

movimento browniano com coeficiente de difus˜ao σ2/N .

Podemos escrever (2.2) da seguinte forma

dxj(t) = θ " σ N N X i=1 Bi(t) ! − xj(t) # dt + σdBj(t), (2.3)

com solu¸c˜ao dada por

xj(t) = σ N N X i=1 Bi(t) + σe−θt Z t 0 eθsdBj(s) − σ N N X i=1  e−θt Z t 0 eθsdBi(s)  (2.4)

(28)

∀ j = 1, . . . ,.

Pela lei forte dos grandes n´umeros no limite quando N → ∞ temos que 1 N N X i=1 Bi(t) → 0, q.c.

e neste caso o processo ´e an´alogo a (1.7) com µ = 0. Da´ı pode-se ver que os processos xj(t)

convergem para para processos de Ornstein - Uhlenbeck independentes para j = 1, . . .

dxj(t) = −θxj(t)dt + σdBj(t)

xj(0) = 0

cuja solu¸c˜ao ´e dada por

xj(t) = σe−θt

Z t

0

eθsdBj(s); 0 ≤ t < ∞. (2.5)

Para verificar a convergˆencia lembremos (2.4). J´a sabemos que o primeiro termo do lado direito tende a zero quase certamente e podemos ver que o terceiro converge em probabilidade e em L2 a zero quando N → ∞. De fato, seu valor esperado ´e zero e o

segundo momento ´e dado por " σ N N X i=1  e−θt Z t 0 eθsdBi(s) #2 ≤ σ 2 Ne −2θt e2θt 2θ  .

No entanto, estamos interessados em obter aproxima¸c˜oes no c´alculo das probabilidades de “grandes desvios”, ou seja, determinar o comportamento de certos “eventos raros” (que possuem probabilidade tendendo a zero) de modo a obter estimativas mais precisas para probabilidade desses eventos, quando N → +∞.

O estudo de grandes desvios foi feito inicialmente por Cram´er tratando de grandes desvios com rela¸c˜ao `a lei dos grandes n´umeros no estudo de problemas assint´oticos para sequˆencias de vari´aveis aleat´orias independentes e identicamente distribu´ıdas.

(29)

Posteriormente seu trabalho foi ampliado por Chernoff (1952) e se desenvolveu para diversos tipos de processos, na mecˆanica estat´ıstica em situa¸c˜oes de dependˆencia entre as vari´aveis aleat´orias. Uma formula¸c˜ao geral deve-se a Varadhan [21].

A an´alise de “grandes desvios” em situa¸c˜oes de dependˆencia entre as vari´aveis aleat´orias surge naturalmente na mecˆanica estat´ıstica, no estudo do comportamento de propriedades macrosc´opicas de sistemas termodinˆamicos em equil´ıbrio. No contexto do modelo apresentado nesta se¸c˜ao o principal interesse ´e analisar o risco sistˆemico baseado no evento " min 0≤t≤T 1 N N X j=1 xj(t) ≤ η # .

Pela simplicidade do modelo verificamos facilmente que a m´edia emp´ırica do sistema possui a mesma distribui¸c˜ao da m´edia de N movimentos brownianos independentes com coeficiente de difus˜ao σ2, que de fato, ´e um movimento browniano com coeficiente

de difus˜ao σ2/N que denotaremos por ˜B. Dessa forma, podemos calcular a seguinte

probabilidade P min 0≤t≤T σ N N X j=1 Bj(t) ≤ η ! = P min 0≤t≤T ˜ B(t) < η √ N σ ! = 2Φ η √ N σ√T ! , (2.6)

onde a ´ultima igualdade na equa¸c˜ao (2.6) ´e devida ao princ´ıpio da reflex˜ao do movimento browniano.

Queremos calcular o limite

lim N →∞− 1 N log P 0≤t≤Tmin ˜ B(t) ≤ η √ N σ ! = lim N →∞− 1 N log 2Φ η√N σ√T !

(30)

Lema 2.1 Quando x → ∞ Z +∞ x 1 √ 2πe −1 2y 2 dy ∼ x−1√1 2πe −1 2x 2 ;

mais precisamente, a seguinte desigualdade

[x−1− x−3]√1 2πe −1 2x2 < Z +∞ x 1 √ 2πe −1 2y2dy < x−1√1 2πe −1 2x2 ´

e v´alida para todo x > 0. Aplicando o Lema acima,

lim N →∞− 1 N log 2Φ η√N σ√T ! = lim N →∞− 1 N log Z η √ N σ√T −∞ 2 √ 2πe −u2 2 du ! = lim N →∞− 1 N log   2 √ 2π   e−2σ2Tη2N −η √ N σ√T     = lim N →∞− 1 N " log  2 √ 2π  + log  e−2σ2Tη2N  − log −η √ N σ√T !# = η 2 2σ2T. lim N →∞− 1 N log P 0≤t≤Tmin ˜ B(t) < η √ N σ ! = η 2 2σ2T.

Portanto, a probabilidade desejada ´e dada por

P min 0≤t≤T 1 N N X j=1 xj(t) < η ! ≈ exp(−η2N/(2σ2T )), (2.7)

o s´ımbolo 00 ≈00 em (2.7) deve ser interpretado como uma equivalˆencia logar´ıtmica.

Note que a equa¸c˜ao (2.7) n˜ao depende de θ, portanto, a probabilidade de um evento sistˆemico, isto ´e, um evento onde ocorre a falha de grande parte ou de at´e mesmo todo

(31)

sistema, independe da taxa de revers˜ao `a m´edia, ou seja, aumentar a estabilidade do sistema aumentando os valores de θ n˜ao interfere na ocorrˆencia ou n˜ao de um evento sistˆemico. Em contrapartida, quanto maior θ, mais concentrado em torno da m´edia ´e o sistema, e caso ocorra um evento sistˆemico maior ser´a a quantidade de elementos que geram este evento.

Podemos ainda estar interessados em analisar a probabilidade do tempo esperado at´e que um grande n´umero de componentes caia abaixo de um determinado n´ıvel η pela primeira vez, isto ´e, calcular a probabilidade P (τ < t) onde τ = min{t : ¯x(t) < η}. O c´alculo desta probabilidade foi feito com detalhes em [14] no caso em que temos N processos de Ornstein - Uhlenbeck independentes.

A seguir vamos analisar o modelo principal e desenvolver um estudo an´alogo ao que foi feito no modelo mais simples com uma abordagem mais complexa e mais detalhada do modelo.

2.3

An´

alise do Modelo

Nesta se¸c˜ao vamos analisar o modelo principal representado pelo seguinte sistema de equa¸c˜oes diferenciais estoc´asticas

dxj(t) = −hU (xj(t))dt + θ(¯x(t) − xj(t))dt + σdBj(t), j = 1, . . . N

xj(0) = 0,

(2.8)

onde:

• U (x) = V0(x) = x3− x ´e o campo (for¸ca) do sistema.

• h ´e o parˆametro de estabiliza¸c˜ao do sistema. • θ > 0 representa o parˆametro de revers˜ao `a m´edia. • σ2 > 0 representa o coeficiente de difus˜ao.

(32)

O principal objetivo desta se¸c˜ao ´e estudar o limite (macrosc´opico) da distribui¸c˜ao emp´ırica quando N → ∞. A an´alise deste modelo foi feita por Dawson em 1983 [3] garantindo que o mesmo est´a bem definido.

Vale ressaltar que a an´alise desse modelo ser´a feita para valores pequenos de h, pois sendo h um parˆametro de estabiliza¸c˜ao do sistema. Se h for grande a inclina¸c˜ao ao redor da regi˜ao de equil´ıbrio aumenta, dificultando as poss´ıveis transi¸c˜oes de uma regi˜ao est´avel para outra. Portanto, vamos sempre assumir h pequeno.

2.3.1

Limite de Campo M´

edio

De modo an´alogo ao modelo simples queremos analisar o comportamento sistˆemico do processo (2.8) atrav´es da m´edia emp´ırica ¯x(t), no entanto, essa an´alise n˜ao ser´a feita de forma direta, pois o processo ´e n˜ao linear. Portanto, ao inv´es de analisar a m´edia emp´ırica do processo precisamos analisar a medida emp´ırica deste processo no limite quando N → ∞. Antes de entrarmos nos detalhes dessa an´alise vamos fazer as seguintes defini¸c˜oes:

Defini¸c˜ao 5 Seja (Ω, A) um espa¸co mensur´avel. Para x ∈ Ω definimos δx como

δx(A) =    1, se x ∈ A 0, c.c.

Dizemos que δx ´e a medida de Dirac concentrada em x.

Defini¸c˜ao 6 Seja M1(R) o conjunto de medidas de probabilidade em R, munido com a

topologia da convergˆencia fraca e C ([0, T ], M1(R)) o conjunto de fun¸c˜oes cont´ınuas em

[0, T ] que tomam valores em M1(R). Define-se a medida de probabilidade emp´ırica do

processo XN(t, dy) := N1

PN

j=1δxj(t)(dy) de modo que XN(., .) pertence C([0, T ], M1(R)).

Diremos que XN(t, dy) converge fracamente para u(t, y)dy denotando por

XN(t, dy) → u(t, y)dy se para toda fun¸c˜ao cont´ınua e limitada f : R → R temos que

lim N →∞ Z ∞ −∞ f (y)XN(t, dy) = Z ∞ −∞ f (y)u(t, y)dy.

(33)

Consideramos sobre M1(R) a topologia da convergˆencia fraca. Esta pode ser obtida

atrav´es de uma m´etrica adequada a qual denotaremos por ρ, de modo que, dada ψ, φ ∈ C([0, T ], M1(R)), dT(φ, ψ) = sup0≤t≤Tρ(φ(t), ψ(t)). Como ρ podemos tomar por exemplo

a m´etrica de Prohorov.

A seguir vamos vamos definir a m´etrica de Prohorov, uma boa referˆencia pode ser encontrada em Billingsley [1] ou em Kurtz [6].

Seja (M, d) um espa¸co m´etrico (d denota a m´etrica nesse espa¸co) e B(M ) a σ −´algebra de subconjuntos de Borel em M . Seja P (M ) a fam´ılia de medidas de probabilidade em (M, B(M )). Para um subconjunto A ⊂ M , define-se uma vizinhan¸ca ε de A por

Aε:= {p ∈ M |∃q ∈ A, d(p, q) < ε} = [

p∈A

Bε(p).

onde Bε(p) ´e uma bola aberta de centro p e raio ε.

A m´etrica de Prohorov π : P(M )2 → [0, +∞) ´e definida pela distˆancia entre as duas

medidas de probabilidade µ e ν como

π(µ, ν) := inf {ε > 0|µ(A) ≤ ν(Aε) + ε e ν(A) ≤ µ(Aε) + ε para todo A ∈ B(M )} .

A seguir vamos enunciar o teorema do limite de campo m´edio para a medida emp´ırica XN, o qual foi provado por Dawson [3] em 1983.

Teorema 2.3.1 (Dawson, 1983) [3] Assuma que a for¸ca seja dada por U (y) = y3

y e que XN(0) convirja fracamente para uma medida de probabilidade ν0. No limite

quando N → ∞ o processo XN converge fracamente para um processo determin´ıstico

com densidade de probabilidade u(t, y)dy ∈ C([0, T ], M1(R)), que ´e a ´unica solu¸c˜ao fraca

da equa¸c˜ao de Fokker-Planck: ∂ ∂tu = h ∂ ∂y[U (y)u] − θ ∂ ∂y Z ∞ −∞ ˜ yu(t, ˜y)d˜y − y  u  +1 2σ 2 ∂2 ∂y2u, (2.9)

(34)

Pelo Teorema acima o processo XN(., .) que toma valores em M1(R), no limite

quando N → ∞ converge para trajet´oria determin´ıstica com densidade u(t, y)dy, onde u(.) ´e ´unica solu¸c˜ao da equa¸c˜ao de Fokker-Planck (2.9) associada ao sistema (2.8) do qual temos interesse em determinar a solu¸c˜ao.

Antes de entrar nos detalhes do Teorema vamos verificar que o sistema n˜ao linear

dx(t) = −U (x(t))dt + θ(m(t) − x(t))dt + σdB(t), m(t) := E(x(t)),

x(0) = x0.

(2.10)

possui uma ´unica solu¸c˜ao forte (Apˆendice A.1 Dawson [3]). Vale ressaltar a diferen¸ca entre o sistema (2.10) e a equa¸c˜ao usual (2.1), o sistema (2.10) possui um termo m(t) := E(x(t)) que depende da lei do processo no tempo t e n˜ao possui o parˆametro h, pois neste caso a determina¸c˜ao de uma solu¸c˜ao forte para (2.10) independe deste parˆametro, visto que, h determina a amplitude da fun¸c˜ao U (x(t)).

Demonstra¸c˜ao 3 I) Suponha que exista uma solu¸c˜ao x(t) para equa¸c˜ao

dx(t) = −U (x(t))dt + θ(m(t) − x(t))dt + σdB(t) x(0) = x0,

tal que m(t) = E(x(t)).

Queremos mostrar que m(t) ´e limitada em [0, T ] para todo T < ∞.

De modo geral, seja x(.) a solu¸c˜ao de uma equa¸c˜ao linear de primeira ordem do tipo

(35)

Multiplicando esta equa¸c˜ao pelo fator de integra¸c˜ao exp[R0tf (s)ds] temos, x(t) exp Z t 0 f (s)ds  − x0 = Z t 0 g(s) exp Z s 0 f (u)du  ds.

Podemos reescrever a equa¸c˜ao (2.10) da seguinte forma:

dx(t) = [−x(t)3+ (1 − θ)x(t)]dt + σdB(t) + θm(t)dt, m(t) := E(x(t)),

x(0) = x0.

Se tomarmos f (t) = [(θ − 1) + x2(t)] e g(t) = σdB(t) + θm(t) onde dB(t) denota

a derivada generalizada do movimento browniano. Podemos aplicar o mesmo racioc´ınio utilizado anteriormente e escrever a seguinte equa¸c˜ao:

x(t)exp Z t 0 f (s)ds  = x0+ θ Z t 0 m(s)exp Z s 0 f (u)du  ds + σ Z t 0 exp Z s 0 f (u)du  dB(s), x(t) = x0exp  − Z t 0 f (s)ds  +θ Rt 0 m(s)exp Rs 0 f (u)du ds exphR0tf (s)dsi + σ Rt 0 exp Rs 0 f (u)du dB(s) exphR0tf (s)dsi .

Integrando o numerador do ´ultimo termo por partes tomando u = expR0sf (u)du e dv = dB(s) temos que x(t) = x0exp  − Z t 0 f (s)ds  + θ Z t 0 m(s)exp  − Z t s f (u)du  ds + σB(t) − σe(1−θ)texp  − Z t 0 x2(s)ds  Z t 0  B(s)(θ − 1) + x2(s) e(θ−1)sexp Z s 0 x2(u)du  ds.

(36)

Observe que a ´ultima parcela da equa¸c˜ao acima pode ser escrita como σe(1−θ)texphRt 0x 2(s)dsi Z t 0  B(s)(θ − 1) + x2(s) e(θ−1)sexp Z s 0 x2(u)du  ds = σe(1−θ)texphRt 0 x 2(s)dsi Z t 0  B(s)[(θ − 1) + x2(s)]exp Z s 0 (θ − 1) + x2(u) du  ds ≤ σexph−Rt 0 f (s)ds i sup 0≤s≤t |B(s)| Z t 0 |θ − 1| + x2(s) exp Z s 0 (θ − 1) + x2(s) du  ds

Portanto, no caso em que θ > 1 ou θ < 1 podemos determinar uma cota superior para a integral acima separando a integral da soma na soma das integrais

E|x(t)| ≤ |x0|e(1−θ)t+ θ Z t 0 |m(s)|e(1−θ)(t−s)ds + σE|B(t)| + σE  sup 0≤s≤t |B(s)|  (1 + e(θ−1)t).

Pela desigualdade de Doob

E  sup 0≤s≤t |B(s)|  ≤ E  sup 0≤s≤t |B(s)|2 12 ≤ 2t12. Fazendo m+(t) = E|x(t)|, m+(t) ≤ |x 0|e(1−θ)t+ 2σt 1 2 + θRt 0 m +(t)e(1−θ)(t−s)ds + 2σt12(1 + e(θ−1)t). Logo, para 0 ≤ t ≤ T e θ 6= 0 m+(t) ≤ (K|x0| + 2σT 1 2)exp θ + θet(1−θ)/|1 − θ| . onde, K = max(1, e(1−θ)T).

Pela desigualdade de Jensen [11] m(t) ≤ |m(t)| ≤ m+(t), portanto, m(t) ´e limitado

para t ∈ [0, ∞] garantindo que n˜ao existem explos˜oes na equa¸c˜ao (2.10).

A seguir ser´a mostrado que o sistema (2.10) possui solu¸c˜ao forte. Antes disso, note que, pelo Teorema de Cameron - Martin - Girsanov [13] juntamente com o fato da solu¸c˜ao

(37)

do sistema ser n˜ao explosiva temos que a seguinte equa¸c˜ao diferencial estoc´astica

dx(t) = [−(x(t))3+ x(t)]dt + σdB(t) − θx(t)dt + θx(0).

possui uma ´unica solu¸c˜ao forte.

Demonstra¸c˜ao 4 II) O sistema (2.10) possui solu¸c˜ao forte.

Pelo m´etodo iterativo de Picard:

Seja x(1)(t) a ´unica solu¸ao forte da equa¸ao

dx(1)(t) = [−(x(1)(t))3+ x(1)(t)]dt + σdB(t) − θx(1)(t)dt + θx(0).

De modo geral, seja x(n)(t) a ´unica solu¸c˜ao forte da equa¸c˜ao

dx(n)(t) = [−(x(n)(t))3+ x(n)(t)]dt + σdB(t) − θx(n)(t)dt + θE[x(n−1)(t)], x(n+1)(t) − x(n+1)(0) = Z t 0 [−(x(n+1)(t))3+ (1 − θ)x(n+1)(s)]ds + σB(t) + θ Z t 0 m(n)(s)ds m(n)(t) := E[x(n)(t)].

Estabelecemos o seguinte esquema iterativo para n ≥ 1,

x(n+1)(t) − x(n)(t) = Z t 0 (1 − θ)[x(n+1)(s) − x(n)(s)]ds − Z t 0 [(x(n+1)(s))3− (x(n)(s))3]ds + θ Z t 0 [m(n)(s) − m(n−1)(s)]ds.

(38)

(y3− x3) = (y − x)(y2+ xy + x2) = 1 2(x − y)[(x + y) 2+ x2+ y2] temos: x(n+1)(t) − x(n)(t) = Z t 0 (1 − θ)[x(n+1)(s) − x(n)(s)]ds − Z t 0 [x(n+1)(s) − x(n)(s)]f (s)ds + θ Z t 0 [m(n)(s) − m(n−1)(s)]ds, onde x(n+1)(0)−x(n)(0) = 0 e f (s) = 1 2[x (n+1)(s) + x(n)(s)]2+ [(x(n+1)(s))2+ (x(n)(s))2] ≥ 0.

Multiplicando pelo fator de integra¸c˜ao exp[R0tf (s)ds] e integrando por partes como no passo anterior temos

x(n+1)(t) − x(n)(t) = θ Z t 0 e(t−s)(θ−1)exp  − Z t s f (u)du  . [m(n)(s) − m(n−1)(s)]ds. Logo, para 0 ≤ t ≤ T |m(n+1)(t) − m(n)(t)| ≤ K Z t 0 |[m(n)(s) − m(n−1)(s)]|ds, onde K = θ max(1, eT (θ−1)).

De modo iterativo podemos determinar uma cota superior para |m(n+1)1 (t) − m(n)1 (t)| da seguinte forma |m(n+1)(t) − m(n)(t)| ≤ K Z t 0 |[m(n)(s) − m(n−1)(s)]|ds ≤ K Z t 0 K Z s1 0 |m(n−1)(s1) − m(n−2)(s1)|ds1ds ≤ Kn Z t 0 Z s1 0 ... Z sn−1 0 |m(1)(s n−1) − m(0)(sn−1)|dsn−1...ds1ds ≤ KnTn/n!

Portanto, a sequˆencia {m(n)(t) : 0 ≤ t ≤ T } definida no espa¸co m´etrico (C([0, T ]), d),

(39)

Cauchy. Seja m(t) o limite uniforme de mn(t).

Vamos partir de um argumento an´alogo ao anterior para mostrar que (2.10) possui solu¸c˜ao forte.

Seja x(.) a ´unica solu¸c˜ao forte da equa¸c˜ao

dx(t) = [−x(t)3+ (1 − θ)x(t)]dt + σdB(t) + θm(t)dt, temos que, x(t) − x(n)(t) = Z t 0 (1 − θ)[x(s) − x(n)(s)]ds − Z t 0 [x3(s) − (x(n)(s))3]ds + θ Z t 0 [m(s) − m(n−1)(s)]ds.

Fatorando a diferen¸ca de cubos como anteriormente temos,

x(t) − x(n)(t) = Z t 0 (1 − θ)[x(s) − x(n)(s)]ds − Z t 0 [x(s) − x(n)(s)]f (s)ds + θ Z t 0 [m(s) − m(n−1)(s)]ds, onde x(0) − x(n)(0) = 0 e f (s) = 1 2[x (n+1)(s) + x(n)(s)]2+ (x(n+1)(s))2+ (x(n)(s))2 ≥ 0.

Multiplicando pelo fator de integra¸c˜ao exp[R0tf (s)ds] e integrando por partes como nos passos anteriores,

x(t) − x(n)(t) = θ Z t 0 e(t−s)(θ−1)exp  − Z t s f (u)du  . [m(s) − m(n−1)(s)]ds Logo, para 0 ≤ t ≤ T |E[x(t)] − m(n)(t)| ≤ K Z t 0 |m(s) − m(n−1)(s)|ds.

(40)

Portanto, m(n)(t) converge para E[x(t)] e sabemos que a sequˆencia dos m(n)(t) converge para m(t). Logo, segue que E[x(t)] = m(t) garantindo dessa forma a existˆencia de uma solu¸c˜ao forte para a equa¸c˜ao (2.10).

III) Unicidade da solu¸c˜ao.

Para mostrar a unicidade da solu¸c˜ao vamos supor que existem duas solu¸c˜oes de (2.10) x1(t) e x2(t), onde m(1)(t) = E[x1(t)] e m(2)(t) = E[x2(t)]. Como antes podemos escrever

a seguinte desigualdade, |m(2)(t) − m(1)(t)| ≤ |m(2)(0) − m(1)(0)| + K Z t 0 |m(2)(s) − m(1)(s)|ds, (2.11) onde m(2)(0) = m(1)(0) = E[x0].

Desigualdade de Gronwall [4] (Durret cap´ıtulo 5 p´agina 188).

Suponha que ϕ(t) ≤ A + BR0sϕ(s)ds para todo t ≥ 0 e ϕ(t) cont´ınua. Ent˜ao ϕ(t) ≤ AeBt.

Pela desigualdade de Gronwall,

|m(2)(t) − m(1)(t)| ≤ 0.eKt= 0. (2.12)

Logo, m(2)(t) = m(1)(t), estabelecendo dessa forma a unicidade da solu¸ao.

Uma segunda etapa muito importante ´e mostrar que a equa¸c˜ao de Fokker - Planck (2.9) possui uma ´unica solu¸c˜ao a valores medida.

A seguir vamos verificar a existˆencia de uma solu¸c˜ao. Devido ao grau de complexidade a unicidade n˜ao ser´a vista nesta disserta¸c˜ao. A principal referˆencia ´e o artigo do Dawson (Apˆendice A.2 Dawson 1983 [3]).

(41)

Demonstra¸c˜ao 5 I - Existˆencia.

Seja x(.) a solu¸c˜ao da equa¸c˜ao (2.10). Seja φ ∈ S , onde S ´e o espa¸co das fun¸c˜oes teste de Schwartz, pela f´ormula de Itˆo temos que:

φ(x(t)) − φ(x(0)) − Z t 0 [(−x3(s) + x(s)(1 − θ))φ0(x(s)) + 1 2σ 2φ00 (x(s)) + θm1(t)φ0(x(s))]ds ´ e uma martingala.

Se p(t;dx) denota a lei de x(t). Ent˜ao a condi¸c˜ao de martigala acima implica que p(. ; .) ´e uma solu¸c˜ao a valores medida de probabilidade da equa¸c˜ao n˜ao linear (2.9).

Tendo feito tais considera¸c˜oes a constru¸c˜ao do Teorema (2.3.1) ´e baseada nos dois seguintes passos[3]:

1. Mostrar que a fam´ılia de processos ´e relativamente compacta.

Para provar que a fam´ılia de processos XN(t, .) ´e relativamente compacta em

C([0, T ], M1(R)) ´e suficiente provar que:

• supNsup0≤t≤T E(hXN(t), |x|i) < ∞.

• Para cada φ ∈ CK(R), o espa¸co de fun¸c˜oes com suporte compacto, os processos

hXN(.), φi s˜ao relativamente compacto em C[0, T ].

2. Determina¸c˜ao do limite.

Seja PN a lei de probabilidade do processo a valores medida XN. O fato do processo

XN ser relativamente compacto implica na existˆencia de uma subsequˆencia PNk →

u. Bastando provar que u ´e a ´unica solu¸c˜ao do processo a valores medida {u(t) : t ≥ 0}.

Portanto, pelo Teorema 2.3.1, podemos analisar u e tratar XN como uma pertuba¸c˜ao

(42)

R∞

−∞yXN(t, dy). Em geral, n˜ao existem solu¸c˜oes expl´ıcitas dispon´ıveis para (2.9) mas

podemos encontrar solu¸c˜oes de equil´ıbrio, ou seja, as solu¸c˜oes quando t → ∞ assumindo ξ = limt→∞

R∞

−∞yu(t, y)dy. A solu¸c˜ao u e ξ no limite satisfaz: h d dy[(y 3− y)ue ξ] − θ d dy[(ξ − y)u e ξ] + 1 2σ 2 d2 dy2u e ξ = 0, ueξ(y) = 1 Zξ q 2πσ2 exp ( −(y − ξ) 2 2σ2 2θ − h 2 σ2V (y) ) , Zξ = Z ∞ −∞ 1 q 2πσ2 exp ( −(y − ξ) 2 2σ2 − h 2 σ2V (y) ) dy. (2.13)

onde Zξ ´e a constante normalizadora. E ξ deve satisfazer a condi¸c˜ao de consistˆencia ou

compatibilidade:

ξ = m(ξ) := Z ∞

−∞

yueξ(y)dy. (2.14)

Logo encontrar solu¸c˜oes de equil´ıbrio se reduz a encontrar solu¸c˜oes dessa equa¸c˜ao. Para θ fixo, o modelo foi definido de modo que a especifica¸c˜ao de um valor cr´ıtico para σ ´e de extrema importˆancia, pois se σc ≤ σ, a influˆencia das pertuba¸c˜oes externas

sob o sistema aumenta de tal forma que a aleatoriedade passa a dominar a intera¸c˜ao entre os componentes, ou seja, a intera¸c˜ao devido ao fator θ(¯x(t) − xj(t))dt se torna

desprez´ıvel e neste caso o sistema se comporta como N difus˜oes independentes.

Neste caso, o sistema possui um comportamento inst´avel entre as regi˜oes {+ξ} e {−ξ} devido `a simetria da fun¸c˜ao V (xj(t)) = xj(t)4/4 − xj(t)2/2. Logo, temos um

processo de m´edia zero.

Portanto, estamos interessados no caso em que σ ´e pequeno, σ < σc, pois neste caso

o termo difusivo σdBj(t) possui uma influˆencia menor sob o sistema e a intera¸c˜ao de

cada componente com a m´edia emp´ırica passa a ter maior significˆancia devido a parcela θ(¯x(t) − xj(t))dt. Nestas condi¸c˜oes uma grande parte dos componentes permanecem em

(43)

torno da mesma regi˜ao por um longo intervalo de tempo, isto ´e, das regi˜oes {+ξ} ou {−ξ}. Por esse motivo vamos sempre considerar σ < σc.

Proposi¸c˜ao 2.1 (Garnier, Papanicolaou, Yang, 2013) Para h pequeno, o valor crit´ıco σc pode ser expandido como

σc=

r 2θ

3 + O(h). (2.15)

Pode ser mostrado [9], que as solu¸c˜oes n˜ao nulas ±ξ s˜ao da forma:

±ξ = ± r 1 − 3σ 2 2θ 1 + h 6 σ2  σ2 2θ 2 1 − 2(σ2/2θ) 1 − 3(σ2/2θ) ! + O(h2). (2.16)

Pela proposi¸c˜ao 2.3 ´e possivel determinar uma rela¸c˜ao entre os parˆametros que garante a existˆencia de estados bi-est´aveis. A seguir vamos mostrar que, dados θ e h pequeno, a equa¸c˜ao (2.14) possui solu¸c˜oes n˜ao nulas se e somente se 3σ2 < 1.

Demonstra¸c˜ao 6 Rela¸c˜ao Entre σ2 e θ.

Como estamos supondo h pequeno, com base em (2.13) podemos considerar a densidade de ueξ como sendo uma pertuba¸c˜ao da fun¸c˜ao densidade da normal. Seja Y uma vari´avel aleat´oria com distribui¸c˜ao normal de m´edia ξ e variˆancia σ2/2θ, e seja p

ξ sua densidade. Sabemos que: Zξ = Z ∞ −∞ 1 q 2πσ2 exp ( −(y − ξ) 2 2σ2 − h 2 σ2V (y) ) dy. (2.17)

(44)

definindo η = 2/σ2, segue que:

exp(−hηV (y)) = 1 − hηV (y) + h2η2V2(y)/2 + O(h3),

Zξ =

Z

{1 − hηV (y) + h2η2V2(y)/2 + O(h3)}p

ξ(y)dy, e = E[1 − hηV (Y ) + h2η2V2(Y )/2 + O(h3)] = 1 − hηEV (Y ) + 1 2h 2 η2EV2(Y ) + O(h3).

Da´ı, tamb´em obtemos

Zξ−1 = 1 + hηEV (Y ) − 1 2h

2η2EV2(Y ) + h2η2(EV (Y ))2+ O(h3).

Portanto, podemos calcular m(ξ) da seguinte forma:

m(ξ) = Zξ−1 Z y  1 − hηV (y) + 1 2h 2η2V2(y) + O(h3)  pξ(y)dy (2.18) = Zξ−1  ξ − hηE[Y V (Y )] + 1 2h 2η2E[Y V2(Y )] + O(h3)  = ξ + hη{ξEV (Y ) − E[Y V (Y )]} + h2η2{−1 2ξEV 2(Y ) + ξ(E(V (Y ))2 − EV (Y )E[Y V (Y )] + 1 2E[Y V 2(Y )]} + O(h3) = ξ − hησ 2 2θE ¯V (Y ) + h 2 η2σ 2 2θ{E[V (Y ) ¯V (Y )] − EV (Y )E ¯V (Y )} + O(h 3 ) = ξ − hησ 2 2θE ¯V (Y ) + h 2η2σ2 2θcov( ¯V (Y ), V (Y )) + O(h 3).

(45)

Garnier, G. Papanicolaou e T. Yang [9] (apˆendice A, p´agina 20). Pela condi¸c˜ao (2.14) ξ = m(ξ) segue que,

E ¯V (Y ) − hηcov( ¯V (Y ), V (Y )) + O(h2) = 0. (2.19)

Assumindo que ξ = ξ0+ hξ1+ O(h2) temos,

ξ03− 3σ 2 2θξ0− ξ0 = ξ0(ξ 2 0 + 3 σ2 2θ − 1) = 0. (2.20)

Portanto as solu¸c˜oes s˜ao: ξ = ±p1 − 3σ2/2θ e ξ = 0.

2.4

Modelo Heterogˆ

eneo

Uma generaliza¸c˜ao do modelo tamb´em ´e apresentada em [9] para o caso em que cada agente possui uma taxa individual de revers˜ao a m´edia, isto ´e, para j = {1, . . . , N } temos um sistema de equa¸c˜oes diferenciais estoc´asticas da seguinte forma

dxj(t) = −hU (xj(t))dt + θj(¯x(t) − xj(t))dt + σdwj(t). (2.21)

Como antes temos U (x) = V0(x) e agora consideramos o caso em que θ1, . . . , θN

assume K valores positivos distintos Θ1, . . . , ΘK e definimos Il = {j : θj = Θl},

ρl = |Il|/N e XNl = 1 ρl N

P

j∈Ilδxj assumindo que o limN→∞ρl existe e ´e positivo para todo

l. O limite de (XN1, . . . , XNK) quando N → ∞ ´e dado pelas solu¸c˜oes fracas (u1, . . . , uK)

do conjunto de K equa¸c˜oes de Fokker-Planck apresentadas no Teorema a seguir.

Teorema 2.4.1 (Garnier, Papanicolaou, Yang, 2013) Assuma U (y) = y3 − y e que (X1

N(0), . . . , XNK(0)) converge fracamente em probabilidade para uma medida de

probabilidade (ν1, . . . , νk). O vetor (XN1, . . . , XNK) converge fracamente a valores medida quando N → ∞ para o vetor de solu¸c˜oes fraca (u1, . . . , uK) do sistema de equa¸c˜oes de

(46)

∂ ∂tu1 = 1 2σ 2 ∂2 ∂y2u1 − Θ1 ∂ ∂y Z ˜ yXρlul(t, ˜y)d˜y − y  u1  + h ∂ ∂y[U (y)u1] .. . ∂ ∂tuK = 1 2σ 2 ∂2 ∂y2uK− Θk ∂ ∂y Z ˜ yXρlul(t, ˜y)d˜y − y  uK  + h ∂ ∂y[U (y)uK], (2.22)

com condi¸c˜oes iniciais (ν1, . . . , νk). As solu¸c˜oes de equilibrio uel ,ξ possuem a seguinte forma: uel ,ξ(y) = 1 Zl,ξ q 2πσ2 l exp ( −(y − ξ) 2 2σ2 l − h 2 σ2V (y) ) Zl,ξ = Z 1 q 2πσ2 l exp ( −(y − ξ) 2 2σ2 l − h 2 σ2V (y) ) dy, (2.23)

e ξ de satisfazer a condi¸c˜ao de compatibilidade:

ξ = m(ξ) := Σρl

Z

yuel ,ξ(y)dy. (2.24)

Analogamente temos que se U (y) = y3− y, ξ = 0 ´e uma solu¸c˜ao trivial da equa¸c˜ao

(2.24), e pode ser mostrado ainda atrav´es de uma extens˜ao do caso homegˆeneo [9] que existem duas solu¸c˜oes n˜ao triviais ue

l ,ξ e uel ,−ξ se e somente se d

dξm(0) > 1 e como no

caso homogˆeneo, podemos determinar uma aproxima¸c˜ao para condi¸c˜ao de equil´ıbrio para pequeno valores de h.

Proposi¸c˜ao 2.4.2 A condi¸c˜ao de compatibilidade (2.24) possui solu¸c˜oes n˜ao nulas se e somente se σ < σc e para pequeno valores de h, σc posssui a seguinte expans˜ao

σc= v u u t K X l=1 ρl Θl / K X l=1 3ρl 2Θ2 l + O(h). (2.25)

(47)

pequenos valores de h e s˜ao dadas por: ±ξ = ± v u u t K X l=1 ρl Θl  1 − 33σ 2 2Θl  / K X l=1 ρl Θl + O(h). (2.26)

2.5

Modelo de Grupos

Nesta se¸c˜ao vamos analisar um caso especial muito interessante o qual denominamos por modelo de grupos. Neste caso o processo ´e dividido em dois ou mais grupos onde cada agente ir´a pertencer a um desses grupos. As intera¸c˜oes ocorrem de modo que, cada agente interage com o grupo ao qual pertence com taxa θ e com os demais grupos com a taxa ¯θ tal que, θ > ¯θ.

Antes de detalhar este modelo vamos citar as principais caracter´ısticas que tornam seu estudo relevante.

Pode-se ter interesse em estudar um sistema com as seguintes caracter´ısticas:

• O sistema ´e formado por dois ou mais grupos com tendˆencias opostas, isto ´e, cada grupo possui um comportamento diferente dos demais.

• O grau de intera¸c˜ao de cada agente com seu pr´opio grupo ´e maior do que com os demais grupos.

portanto, propor um modelo que seja sens´ıvel a essas informa¸c˜oes proporciona uma modelagem mais apurada e eficiente.

2.5.1

An´

alise do Modelo de Grupos

A an´alise deste modelo ser´a feita a seguir para um caso particular onde separamos o sistema em dois grupos, ou seja, o sistema ´e dividido em dois grupos onde metade das componentes se encontra no grupo 1 e a outra metade no grupo 2.

(48)

Um modelo que possui as caracter´ısticas desejadas pode ser descrito matematicamente pelo sistema de equa¸c˜oes diferenciais estoc´asticas de Itˆo (2.27) caso xj(t) perten¸ca ao

grupo 1 ou por (2.28) caso contr´ario:

dxj(t) = −hU (xj(t))dt + θ(¯x1(t) − xj(t))dt + ¯θ(¯x2(t) − xj(t))dt + σdBj(t) (2.27)

dxj(t) = −hU (xj(t))dt + θ(¯x2(t) − xj(t))dt + ¯θ(¯x1(t) − xj(t))dt + σdBj(t),(2.28)

para j ∈ ¯x1, m´edia do grupo 1 e para j ∈ ¯x2, m´edia do grupo 2.

A seguir vamos propor as solu¸c˜oes esperadas de (2.27) e (2.28), que pode ser visto como uma extens˜ao dos Teoremas 2.3.1 e 2.4.1 para o modelo de grupos. Estamos interessados nas solu¸c˜oes n˜ao triviais desse sistema e como nos casos anteriores estudamos o processo a valores no espa¸co das medidas.

Assuma que a for¸ca seja dada por U (y) = y3 − y e que (XN(1)(0), XN(2)(0)) convirja fracamente para as medidas de probabilidade ν1, ν2. Neste modelo, separamos as

componentes em dois conjuntos disjuntos, de modo que metade dos componentes perten¸ca ao grupo 1 e a outra metade perten¸ca ao grupo 2, onde as intera¸c˜oes s˜ao dadas como anteriormente. No limite quando N → ∞ os processos XN(1) e XN(2), que representam a medida emp´ırica do grupo 1 e 2 respectivamente e tomam valores em M1(R) convergem

fracamente para um sistema determin´ıstico com densidades u1(t, y), u2(t, y) ∈ C([0, T ],

M1(R)), ∂ ∂tu1 = h ∂ ∂y[U (y)u1] − θ ∂ ∂y Z ∞ −∞ ˜ yu1(t, ˜y)d˜y − y  u1  − ¯θ ∂ ∂y Z ∞ −∞ ˜ yu2(t, ˜y)d˜y − y  u1  + 1 2σ 2 ∂2 ∂y2u1, ∂ ∂tu2 = h ∂ ∂y[U (y)u2] − θ ∂ ∂y Z ∞ −∞ ˜ yu2(t, ˜y)d˜y − y  u2  − ¯θ ∂ ∂y Z ∞ −∞ ˜ yu1(t, ˜y)d˜y − y  u2  + 1 2σ 2 ∂ 2 ∂y2u2,

(49)

onde ν1 e ν2 s˜ao as condi¸c˜oes iniciais.

A rela¸c˜ao entre os parˆametros, a existˆencia de uma rela¸c˜ao entre sigma cr´ıtico σc em

fun¸c˜ao de θ e ¯θ e as solu¸c˜oes aproximadas ainda est˜ao em desenvolvimento. Observe ainda que podemos ampliar essa vers˜ao do modelo de grupos separando os agentes em mais de dois grupos, a extens˜ao e a an´alise deste caso ainda est˜ao em desenvolvimento.

(50)

Cap´ıtulo 3

Grandes Desvios e Simula¸

oes

3.1

Grandes Desvios

No cap´ıtulo anterior foi mostrado que para valores de N grande a medida emp´ırica XN(t, dy) converge em probabilidade para a solu¸c˜ao da equa¸c˜ao de Fokker - Planck (2.9)

e neste caso a m´edia emp´ırica ¯x(t) permanece em torno do momento de primeira ordem R∞

−∞yu(t, y)dy. Observe que se as condi¸c˜oes de existˆencia dos dois estados de equil´ıbrio

for satisfeita, ¯x(t) permanecer´a na regi˜ao {+ξ} em torno de {+1} ou {−ξ} em torno de {−1} por determinado intervalo de tempo para valores pequenos de h.

Uma transi¸c˜ao sistˆemica ´e um evento no qual ¯x(t) ´e deslocado da regi˜ao {+ξ} para a regi˜ao {−ξ}, ou seja, a transi¸c˜ao de um grande n´umero de agentes de uma regi˜ao para outra em um intervalo de tempo finito. Nosso interesse ´e calcular a probabilidade de transi¸c˜ao para valores de N grande.

Dado um horizonte de tempo finito [0,T], os parˆametros (h, σ, θ) e as devidas condi¸c˜oes de existˆencia para o equil´ıbrio bi-est´avel. Queremos calcular uma aproxima¸c˜ao da probabilidade de transi¸c˜ao da m´edia entre uma regi˜ao est´avel e outra

P (¯x(0) ∈ {−ξ}, ¯x(T ) ∈ {+ξ}) (3.1)

(51)

3.2

Grandes Desvios via Campo M´

edio

Nesta se¸c˜ao vamos calcular a probabilidade de transi¸c˜ao assint´otica usando a teoria de grandes desvios desenvolvida no artigo de Dawson e Gartner [5]. Por´em, antes de estabelecer a teoria de grandes desvios iremos rever algumas nota¸c˜oes e terminologias definidas em [5].

• M1(R) ´e o espa¸co das medidas de probabilidade em R munido da m´etrica de

Prohorov ρ, associada `a convergˆencia fraca.

• C([0, T ], M1(R)) ´e o espa¸co das fun¸c˜oes cont´ınuas f : [0, T ] → M1(R) com a m´etrica

sup0≤t≤T ρ(φ1(t), φ2(t)).

• MRϕ(R) = {µ ∈ M1(R),R ϕ(x)µ(dx) ≤ R}, onde ϕ ∈ C2(R) ´e uma fun¸c˜ao

n˜ao-negativa com limx→∞ϕ(x) = ∞. Neste artigo [5] foi mostrado que se U (x) = x3−x,

a fun¸c˜ao ϕ adequada ´e dada por ϕ(x) = 1 + x2+ γx4, onde 0 ≤ γ ≤ h/2.

• M∞(R) = ∪R>0M ϕ

R(R) = {µ ∈ M1(R),R ϕ(x)µ(dx) < ∞} munido com a

topologia indutiva: µn → µ em M∞(R) se e somente se µn → µ em M1(R) e

supnR ϕ(x)µn(dx) < ∞.

• C([0, T ], M∞(R)) ´e o espa¸co das fun¸c˜oes cont´ınuas f : [0, T ] → M∞(R) munido

com a topologia: φn(.) → φ(.) em C([0, T ], M∞(R)) se e somente se φn(.) → φ(.)

em C([0, T ], M1(R)) e o sup0≤t≤T supnR ϕ(x)φn(t, dx) < ∞.

• Dado ν ∈ M∞(R) e seja εν = {φ ∈ C([0, T ], M∞(R)) : φ(0) = ν}, munido com a

topologia relativa.

Para simplificar a nota¸c˜ao, reescrevemos (2.1) como ut = L∗uu + hM

u, onde L∗ψφ = 1 2σ 2 φxx + θ ∂ ∂x  x − Z xψ(t, x)dx  φ  , M∗φ = ∂ ∂x[U (x)φ].

Teorema 3.2.1 (Dawson e Gartner, 1987) Dado um horizonte de tempo finito [0,T], ν ∈ M∞(R) e A ⊆ εν, se XN(0) = N1 PNj=1δxj(0) → ν em M∞(R) quando N → ∞, ent˜ao

(52)

a lei de XN(t) = N1

PN

j=1δxj(t) satisfaz o princ´ıpio dos grandes desvios com uma fun¸c˜ao

taxa Ih isto ´e:

− inf

φ∈AoIh(φ) ≤ lim infN →∞

1 NlogP (XN ∈ A) (3.2) ≤ lim sup N →∞ 1 NlogP (XN ∈ A) ≤ − infφ∈ ¯A Ih(φ),

onde Ao e ¯A representam respectivamente o interior e o fecho de A, e

Ih(φ) = 1 2σ2 Z T 0 sup f :hφ,f2 xi6=0 Jh(φ, f )dt, Jh(φ, f ) = hφt− L∗φ − hM∗φ, f i2/hφ, fx2i, hφ, f i = Z +∞ −∞ f (x)φ(dx),

se φ(t) ´e absolutamente cont´ınua ∀ t ∈ [0, T ] e Ih(φ) = ∞ caso contr´ario.

Antes de aplicarmos o Teorema 3.1.2, considere ν = ue

−ξ em (2.13) e o conjunto

definido a seguir

A = {φ ∈ εν : φ(T ) = ueξ}.

Observe que Ao´e um conjunto vazio, e o Teorema 3.1.2 nos proporciona uma cota inferior

trivial para a probabilidade em quest˜ao. Portanto, vamos considerar o conjunto Aδ

Aδ = {φ ∈ εν : ρ(φ(T ), ueε) ≤ δ}.

O Teorema 3.2.1 implica que

− inf φ∈Ao δ Ih(φ) ≤ lim inf N →∞ 1 NlogP (XN ∈ Aδ) (3.3) ≤ lim sup N →∞ 1

NlogP (XN ∈ Aδ) ≤ − infφ∈Aδ

(53)

Al´em disso, vamos mostrar que infφ∈Aδ pode ser limitado por baixo pelo infφ∈AIh(φ)

quando δ → 0.

Lema 3.1 Por defini¸c˜ao infφ∈AδIh(φ) ´e crescente e limitado por cima pelo infφ∈AIh(φ).

E al´em disso,

lim

δ→0φ∈Ainfδ

Ih(φ) ≥ inf

φ∈AIh(φ). (3.4)

Demonstra¸c˜ao 7 Vamos mostrar para um caso particular por´em suficiente que ´e o caso em que δ = 1/n. Para cada n, seja φn ∈ A1/n, tal que infφ∈A1/nIh(φ) ≤ Ih(φn) <

infφ∈A1/nIh(φ) + 1/n; onde {Ih(φn)} ´e limitada por cima pelo infφ∈AIh(φ) + 1 < ∞.

Seja Ih uma fun¸c˜ao taxa apropriada (satisfazendo o Teorema 3.2.1), e pela proposi¸c˜ao

B.13 de [18], o crit´erio de compacidade equivale para a sequˆencia de compactos em C([0, T ], M∞(R)), ou seja, {φn} possui uma subsequˆencia convergente {φnk} cujo limite

φ∗ pertence ao conjunto A. Como Ih ´e uma fun¸c˜ao semicont´ınua e decrescente, ent˜ao

lim n φ∈Ainf1/n Ih(φ) = lim k Ih(φnk) = lim infk Ih(φnk) ≥ Ih(φ ∗ ) ≥ inf φ∈AIh(φ). (3.5)

Combinando o lema 3.1 e o fato que infφ∈Ao

δIh(φ) ≤ infφ∈AIh(φ) temos que, para

 > 0 qualquer, e δ > 0 suficientemente pequeno

− inf

φ∈AIh(φ) ≤ lim infN →∞

1

NlogP (XN ∈ Aδ) (3.6)

≤ lim sup

N →∞

1

NlogP (XN ∈ Aδ) ≤ − infφ∈AIh(φ) + .

Portanto, para N grande e δ suficientemente pequeno:

P (XN ∈ Aδ) ≈ exp  −N inf φ∈AIh(φ)  . (3.7)

Esse resultado nos mostra que as trajet´orias da m´edia emp´ırica em sistemas com um grande n´umero de componentes possui um comportamento metaest´avel, tal resultado pode ser verificado nas simula¸c˜oes n´umericas seguir.

(54)

3.3

Simula¸

oes N´

umericas

Nesta se¸c˜ao vamos simular cada um dos modelos apresentados nesta disserta¸c˜ao e interpretar o seu comportamento de acordo com a escolha dos parˆametros. As simula¸c˜oes apresentadas a seguir foram feitas utilizando o esquema de Euler onde discretizamos as equa¸c˜oes (2.1), (2.2) e (2.28) em uma grade de tempo uniforme, de modo que, Xjn representa a simula¸c˜ao de Xj no intervalo de tempo n∆t ∀j = 1, . . . , n. Por exemplo, na

equa¸c˜ao (2.1) temos a seguinte discretiza¸c˜ao:

Xjn+1= Xjn− hU (Xn j)∆t + σ∆B n+1 j + θ( 1 N N X k=1 Xkn− Xn j)∆t. (3.8) ´

E importante ressaltar que tanto as simula¸c˜oes do modelo de Ornstein-Uhlenbeck apresentadas no cap´ıtulo 1 quanto as simula¸c˜oes do modelo simplificado apresentadas a seguir descrevem a trajet´oria temporal individual de cada componente. No entanto, as simula¸c˜oes apresentadas para o modelo principal e para o modelo de grupos descrevem o comportamento da m´edia emp´ırica do sistema.

3.3.1

Modelo Simplificado

Observe a seguir o efeito ao aumentar os valores de N e θ. Assim como simulado no c´apitulo 1 o sistema fica mais concentrado em torno do seu valor inicial {−1}.

(55)

Figura 3.1: σ = 1, θ = 1, N = 10, h = 0.1.

(56)

Figura 3.3: σ = 1, θ = 1, N = 50, h = 0.1.

(57)

Figura 3.5: σ = 1, θ = 6, N = 100, h = 0.1.

3.3.2

Modelo Principal

A seguir mostramos o comportamento do modelo principal quando aumentamos o valor de θ. Note que, a medida que o n´umero de intera¸c˜oes aumenta se torna mais f´acil de visualizar as duas regi˜oes est´aveis do sistema.

(58)

Figura 3.6: σ = 1, θ = 1.5, N = 100, h = 0.1.

(59)

Figura 3.8: σ = 1, θ = 1.5, N = 100, h = 0.1.

Figura 3.9: σ = 1, θ = 6, N = 100, h = 0.1.

3.3.3

Modelo de Grupos

Assim como no modelo principal vamos simular o comportamento da m´edia emp´ırica do sistema e observar seu comportamento quando se aumenta os valores de θ1 e θ2.

As simula¸c˜oes 3.10 e 3.11 mostram o comportamento da m´edia ep´ırica de todas as componentes do sistema enquanto 3.12 representa o comportamento das componentes que pertencem ao grupo 1 e ao grupo 2 separadamente. A figura 3.12 deixa claro a diferen¸ca entre o comportamento do gupo 1 e 2.

(60)

Figura 3.10: σ = 1, θ = 6, ¯θ = 1.5, N = 100, h = 0.1.

(61)

Figura 3.12: σ = 1, θ = 6, ¯θ = 1.5, N = 100, h = 0.1.

(62)

Apˆ

endice A:

3.4

odigo da Simula¸

ao em Matlab

[language= MATLAB]

f unctionr = OU M F (sigma, theta, mu)

N=100; X= -ones(N,1); dt=.02; h=.1; sigma=1; theta=6; n=1; passos=100; while n¡passos for i=1:N W(i,1)=sqrt(dt)*randn(); end

X(:,n+1)=X(:,n) + sigma*W - theta*(X(:,n) - mu)*dt; n=n+1; end k=1:passos; t=k*(dt);

plot(t,X) r=0;

[language= MATLAB]

f unctionr = OU M F (sigma, theta, mu) N = 100; X = −ones(N, 1); dt = .02; h = .1; sigma = 1; theta = 6; n = 1; passos = 100; while n < passos for i = 1 : N W (i, 1) = sqrt(dt) ∗ randn(); end

(63)

n = n + 1; end k = 1 : passos; t = k ∗ (dt); plot(t, X) r = 0; end

(64)

Referˆ

encias Bibliogr´

aficas

[1] BILLINGSLEY, Patrick.Convergence of probability measures. 1999. [2] Chung, Kai Lai. A course in probability theory. Academic press, 2001.

[3] D. A. Dawson, Critical dynamics and fluctuations for a mean-field model of cooperative behavior, J. Statist. Phys., 31 (1983), pp. 29-85.

[4] Durrett, Rick. Probability: theory and examples. Cambridge university press, 2010. [5] D. A. Dawson and J. Gartner, Large deviations from the McKean-Vlasov limit for

weakly interacting diffusions, Stochastics, 20 (1987), pp. 247-308.

[6] Ethier, Stewart N.; Kurtz, Thomas G. Markov processes: characterization and convergence. John Wiley & Sons, 2009.

[7] Fouque, J. P., & Sun, L. H. (2012). Systemic risk illustrated. Handbook on Systemic Risk, Cambridge University Press (forthcoming).

[8] Feller, William. An Introduction to Probability Theory and its Applications Vol. I. (1968).

[9] Garnier, J., Papanicolaou, G., Yang, T. W. (2013). Large deviations for a mean field model of systemic risk. SIAM Journal on Financial Mathematics, 4(1), 151 − 184. [10] Ikeda, N., S. Watanabe. Stochastic differential equations and diffusion processes.

Elsevier, 1989.

[11] James, B.R.: Probabilidade: Um Curso em N´ıvel Intermedi´ario. IMPA, 3a edi¸c˜ao,

Referências

Documentos relacionados

O score de Framingham que estima o risco absoluto de um indivíduo desenvolver em dez anos DAC primária, clinicamente manifesta, utiliza variáveis clínicas e laboratoriais

Entre as atividades, parte dos alunos é também conduzida a concertos entoados pela Orquestra Sinfônica de Santo André e OSESP (Orquestra Sinfônica do Estado de São

a) política nacional de desenvolvimento do turismo; b) promoção e divulgação do turismo nacional, no país e no exterior; c) estímulo às iniciativas públicas e privadas de

Falamos so- bre os métodos dos elipsóides, embora este método seja muito ineficiente na resolução prática de problemas de prograrnaç-ã.o linear, ele tem um val()r

Os resultados deste estudo mostram que entre os grupos pesquisados de diferentes faixas etárias não há diferenças nos envoltórios lineares normalizados das três porções do

Note on the occurrence of the crebeater seal, Lobodon carcinophagus (Hombron &amp; Jacquinot, 1842) (Mammalia: Pinnipedia), in Rio de Janeiro State, Brazil.. On May 12, 2003,

Podem treinar tropas (fornecidas pelo cliente) ou levá-las para combate. Geralmente, organizam-se de forma ad-hoc, que respondem a solicitações de Estados; 2)

expressamente, tacitamente ou de outra forma) no âmbito do presente Contrato (e o presente Contrato exclui.. expressamente qualquer direito) (a) para Materiais Excluídos, (b)