risco sist^emico e grandes desvios · 2015. 11. 12. · e a lei da vari avel aleat oria x(t+s)...
TRANSCRIPT
Universidade Federal do Rio de Janeiro
Risco Sistemico e Grandes Desvios
Rafael Jorge Pereira
Rio de Janeiro
2014
Rafael Jorge Pereira
Risco Sistemico e Grandes Desvios
Dissertacao de Mestrado apresentada ao Programa
de Pos-graduacao em Estatıstica do Instituto de
Matematica da Universidade Federal do Rio de Janeiro
como parte dos requisitos necessarios a obtencao do
tıtulo de Mestre em Estatıstica.
Orientador:
Maria Eulalia Vares
Departamento de Metodos Estatısticos
Instituto de Matematica
Universidade Federal do Rio de Janeiro
Dezembro de 2014
Folha de exame
Dissertacao de Mestrado apresentada ao Programa
de Pos-graduacao em Estatıstica do Instituto de
Matematica da Universidade Federal do Rio de Janeiro
como parte dos requisitos necessarios a obtencao do
tıtulo de Mestre em Estatıstica.
Banca examinadora:
Maria Eulalia Vares
Instituto de Matematica - UFRJ
Glauco Valle da Silva Coelho
Instituto de Matematica - UFRJ
Valentin Sisko
Instituto de Matematica - UFF
Aos meus maiores professores, meus Avos.
i
Agradecimentos
Agradeco a Deus por sua infinita graca e por sempre me cercar de pessoas incrıveis
e brilhantes, a minha orientadora Maria Eulalia por todo o apoio, dedicacao, incentivo
e por sua infinita paciencia. Agradeco a minha famılia que com muito amor e sempre
muito generosa e compreensiva nas horas em que mais preciso, a todo corpo docente pelo
apoio e credibilidade, em especıfico, aos conselhos da Alexandra M. Schmidt nas aulas
de inferencia durante minha graduacao pois este trabalho e fruto dos seus conselhos.
Agradeco a cada membro da minha turma de mestrado pela contribuicao direta ou
indireta neste trabalho, em especıfico, aos amigos Eduardo Ferioli e Fernando Aragao.
Enfim, a todos os amigos muito obrigado.
ii
Resumo
Um dos principais problemas da teoria de processos estocasticos e descrever o
comportamento de um sistema composto por um grande numero de componentes
interagindo entre si. Este e um ensaio baseado no artigo de J. Garnier, G. Papanicolaou
e T. Yang [9] que estuda o risco sistemico em um modelo de difusoes interagentes do tipo
campo medio, que no limite macroscopico apresenta duas regioes de equilıbrio estavel.
O objetivo desta dissertacao e estudar o modelo de difusoes interagentes proposto,
analisando a solucao do modelo, a relacao entre seus parametros e os grandes desvios
com respeito a media empırica do sistema. Alem disso, vamos propor uma extensao do
modelo, que separa o sistema em dois grupos, de modo que, a taxa de reversao a media
de cada componente com seu propio grupo seja maior que a taxa de reversao a media de
cada componente com o grupo vizinho.
iii
Abstract
One of main problems of stochastic system theory is to describe the behaviour of a
system comprised of a large number of interacting subsystems. This is an essay based
on the article by J. Garnier, G. Papanicolaou and T. Yang [9] proposed in analysis of
systemic risk in a mean field type model of interacting diffusions which exhibits two
stable equilibria states in the macroscopic limit.
The aim of this work is to study the proposed model of interacting diffusions,
analyzing model solution, the relationship between the parameters and the large
deviations with respect to the average empirical of system. Moreover, we propose an
extension of the model which separates the system into two groups. The mean reversion
rate of each component with respect to its own group is greater than the mean reversion
rate of each component with the other group.
iv
Sumario
Introducao 1
1 Preliminares 3
1.1 Processos Estocasticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1 Propriedades do Movimento Browniano . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Integracao Estocastica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Equacoes Diferenciais Estocasticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2 Estudo do modelo 15
2.1 O Modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Modelo Simplificado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3 Analise do Modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.1 Limite de Campo Medio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4 Modelo Heterogeneo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.5 Modelo de Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.5.1 Analise do Modelo de Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3 Grandes Desvios e Simulacoes 41
3.1 Grandes Desvios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2 Grandes Desvios via Campo Medio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3 Simulacoes Numericas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.1 Modelo Simplificado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3.2 Modelo Principal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.3.3 Modelo de Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
Apendice A: 53
3.4 Codigo da Simulacao em Matlab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
v
Lista de Figuras
1.1 σ = 1, θ = 1, µ = 0, N = 10. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2 σ = 1, θ = 6, µ = 0, N = 10. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3 σ = 1, θ = 1, µ = −1, N = 50. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4 σ = 1, θ = 6, µ = −1, N = 50. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5 σ = 1, θ = 6, µ = 1, N = 10. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.1 σ = 1, θ = 1, N = 10, h = 0.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.2 σ = 1, θ = 6, N = 10, h = 0.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3 σ = 1, θ = 1, N = 50, h = 0.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4 σ = 1, θ = 6, N = 50, h = 0.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.5 σ = 1, θ = 6, N = 100, h = 0.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.6 σ = 1, θ = 1.5, N = 100, h = 0.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.7 σ = 1, θ = 6, N = 100, h = 0.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.8 σ = 1, θ = 1.5, N = 100, h = 0.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.9 σ = 1, θ = 6, N = 100, h = 0.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.10 σ = 1, θ = 6, θ = 1.5, N = 100, h = 0.1. . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.11 σ = 1, θ = 6, θ = 0.5, N = 100, h = 0.1. . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.12 σ = 1, θ = 6, θ = 1.5, N = 100, h = 0.1. . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.13 σ = 1, θ = 6, θ = 0.5N = 100, h = 0.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
vi
Introducao
Risco sistemico e o risco que um sistema composto por um grande numero de
componentes interconectados possui de que grande parte dos componentes falhem ao
mesmo tempo ou de modo sucessivo causando a falencia de todo sistema. E uma
caracterıstica conjunta de sistemas interconectados, de modo que, avaliar o risco de um
unico componente nao permite dizer nada sobre o risco sistemico.
No mercado financeiro, em geral, esse evento ocorre quando o mau desempenho
de uma ou mais instituicoes financeiras afeta o desempenho dos demais agentes
interconectados gerando uma reacao em cadeia que afeta todo sistema e o leva ao colapso.
Nesta dissertacao vamos discutir o modelo proposto por J. Garnier, G. Papanicolaou
e T. Yang [9] na avaliacao do risco sistemico em um sistema de difusoes interagentes
composto por um grande numero de componentes. As componentes deste modelo
possuem trajetorias contınuas, duas regioes de equilıbrio que no contexto do mercado
financeiro sao denotadas por regiao normal e regiao de falha e interagem entre si via
campo medio, cada componente interage com a media das demais. Associado a essas
interacoes definimos um parametro de reversao a media denotado por θ que determina
o grau no qual cada componente e influenciado pela media do conjunto. Alem disso, as
componentes deste sistema movem-se sob a influencia de um campo (forca) dado pela
derivada do potencial V (y) = 14y4− 1
2y2. O potencial V (y) e modulado por um parametro
de estabilizacao h e cada componente sofre ainda a acao de um ruıdo aleatorio. Note que a
funcao V (y) possui uma estrutura biestavel que garante um comportamento metaestavel
do sistema em torno da regiao “normal” +1 e da regiao de “falha” −1 pontos de
mınimo dessa funcao. Isto e, as componentes do sistema tendem a permanecer em torno
do +1 ou −1.
1
O objetivo deste trabalho e analisar o comportamento do sistema para um numero
grande de componentes, mais especificamente, queremos calcular a probabilidade de
ocorrer um evento sistemico, isto e, um evento no qual grande parte do sistema transita
de uma regiao considerada normal para uma regiao de falha. O principal interesse sera
calcular a probabilidade de transicao da media empırica de uma vizinhaca de +1 para
uma vizinhanca −1 (e vice-versa). No entanto, o modelo adotado na descricao do
sistema possui um termo nao linear que nao nos permite calcular a media empırica de
forma direta e por esse motivo, vamos analisar o processo a valores medida e expressar a
media empırica em funcao da medida empırica [3].
Neste contexto, pode - se interpretar risco sistemico como um grande desvio da media
empırica do sistema cuja probabilidade pode ser determinada a partir dos resultados
obtidos no artigo de Dawson e Gartner [5]. Ademais, sera mostrado que ao contrario do
que podemos esperar esta probabilidade independe da taxa de reversao a media θ.
2
Capıtulo 1
Preliminares
1.1 Processos Estocasticos
Um processo estocastico Xt; t ≥ 0 e uma estrutura constituıda de um espaco de
probabilidade (Ω,F , P ), um conjunto de ındices definidos em [0,∞), e uma aplicacao
X : [0,∞) × Ω → R, tal que para cada t ∈ [0,∞), a funcao X(t, .) : Ω → R e uma
variavel aleatoria, isto e, w : X(t, w) ∈ Γ ∈ F para todo Γ ∈ B(R). Ou seja, um
processo estocastico e uma colecao de variaveis aleatorias definidas em um espaco de
probabilidade (Ω,F , P ) indexadas por t ∈ [0,∞), convenientemente interpretado como
o tempo.
Diremos que o processo e mensuravel se esta funcao for conjuntamente mensuravel,
ou seja, B([0,∞) ×F )-mensuravel. Para cada ω ∈ Ω, a funcao X(., ω) : [0,∞) → R e
chamada trajetoria amostral, ou realizacao do processo em ω. Nesta dissertacao, vamos
tratar de uma classe de processos estocasticos que possuem trajetorias contınuas em t.
Define-se Ft = σ(X(s, .) : s 6 t) como a σ-algebra gerada pelo processo ate o
instante t, ou seja, (Ft)t≥0 e uma filtracao, isto e, Ft ⊂ Ft+s ∀ t, s ∈ [0,∞). E dizemos
que o processo X = (Xt)t≥0 e (Ft) - adaptado se Xt for Ft - mensuravel para todo t.
Desta forma, dados s, t ∈ [0,+∞),
P (X(t+ s) ∈ ·|Ft)
3
e a lei da variavel aleatoria X(t+s) condicionada ao processo ate o instante t, (X(s, .))s6t.
A seguir vamos definir uma classe de processos estocasticos que sera muito utilizada
nesta dissertacao, conhecido como movimento browniano ou processo de Wiener.
Definicao 1 Uma colecao de variaveis aleatorias (Bt, 0 ≤ t ≤ T ) definida no espaco de
probabilidade (Ω,F , P ) e chamado de movimento browniano padrao em R, se:
(a) P (B0 = 0) = 1;
(b) Para cada m ≥ 1, cada 0 < t0 < t1 < . . . < tm ≤ T , Bti+1− Bti, 0 ≤ i ≤ m − 1
sao variaveis aleatorias independentes e Bti+1−Bti possui distribuicao normal com media
zero e variancia (ti+1 − ti), ou seja, de densidade
1√2π(ti+1 − ti)
exp
− 1
2(ti+1 − ti)y2
, y ∈ R;
(c) Para cada ω ∈ Ω, a trajetoria (caminho) amostral t→ Bt(ω) e contınua em [0, T ].
Observe que as condicoes (a) e (b) da definicao anterior determinam as distribuicoes
finito dimensionais do processo. Tal definicao pode ser substituıda por:
(b)′
Dado m ≥ 1, e 0 < t0 < t1 < . . . < tm ≤ T , a distribuicao de (Bt1 , . . . , Btm),
denotada por pt1,...,tm , e a distribuicao normal em Rm com media zero e matriz de
covariancia Σ := ((ti ∧ tj)i,j), i.e
pt1,...,tm(dx) =1
(2π)m/2(detΣ)1/2exp
−1
2〈x,Σ−1x〉
dx,
onde 〈., .〉 denota o produto interno euclidiano usual em Rd.
A definicao e estendida a (Bt)0≤t≤∞ de forma usual [13] (Karatzas, Capıtulo 2, pagina
47). Observe que para 0 = t0 < t1 < . . . < tm < ∞, os incrementos Bti − Bti−1i=mi=1
sao independentes e a distribuicao de Bti − Bti−1depende de ti e ti−1 somente atraves
da diferenca ti − ti−1, ou seja, Bti − Bti−1possui distribuicao normal com meia zero e
variancia ti − ti−1.
4
1.1.1 Propriedades do Movimento Browniano
O movimento browniano da maneira que foi definido possui certas propriedades tais
como o princıpio da reflexao e a propriedade de martingalas.
(1) Princıpio da reflexao. Dado a > 0 e seja Ta = inft : Bt = a.
P (Ta < t) = 2P (Bt > a).
Esta propriedade decorre da propriedade forte de Markov (ver definicao 6.2 pagina
81 [13]).
Demonstracao 1 Observe que se Bs passa pelo ponto “a” em algum instante de tempo
s < t, pela propriedade forte de Markov (ver definicao 6.2 pagina 81 [13]), temos que
Bt − BTa independe do que ocorreu ate o tempo Ta. Pela simetria da normal e pelo fato
de P (Bu = a) = 0 para u > 0, temos
P (Ta < t) = P (Ta < t,Bt > a) + P (Ta < t,Bt < a)
= 2P (Ta < t,Bt > a).
Usando o fato de Bt > a ⊂ Ta < t, podemos reescrever essa equacao como
P (Ta < t) = 2P (Ta < t,Bt > a) = 2P (Bt > a).
C.Q.D.
Antes de enunciar a proxima propriedade, vamos definir o que e uma martingala.
Definicao 2 Dados um espaco de probabilidade (Ω,F , P ), uma filtracao Ft; t ≥ 0 e
um processo estocastico contınuo (Xt), dizemos que (Xt) e uma martingala com respeito
a (Ft) se e somente se:
(i) (Xt) e (Ft)− adaptado, i.e, Ft −mensuravel ∀ t,
(ii) E[Xt|Fs] = Xs, ∀ 0 ≤ s ≤ t q.c.
5
(2) Propriedade de Martingalas. O movimento browniano e uma martingala:
E[Bt|FBs ] = Bs ∀ 0 ≤ s ≤ t. q.c.
onde (FBs ) e a filtracao gerada pelo movimento browniano, isto e, para cada s, FB
t =
σ(Bs : 0 ≤ s ≤ t) e a sigma algebra gerada ate o tempo s.
Demonstracao 2 Sabemos que se s < t, Bt − Bs e independente de FBs e possui
distribuicao normal com media zero e variancia (t− s). Portanto,
E[Bt|FBs ] = E[(Bt −Bs) +Bs|FB
s ] = E[Bt −Bs|FBs ] +Bs
= 0 +Bs = Bs ∀ 0 ≤ s ≤ t, q.c.
1.2 Integracao Estocastica
Nesta secao vamos resumir os conceitos basicos de integracao estocastica no sentido
de Ito. Boas referencias para uma abordagem mais detalhada de integracao estocastica
tanto no caso geral quanto no caso especıfico do movimento browniano podem ser
encontradas em Durrett [4] e Karatzas [13].
O movimento browniano desempenha um papel fundamental na construcao de uma
importante classe de processos de Markov em R, tambem chamado de processos de
difusao. Objetivamente falando, estes processos correspondem a processos de Markov
com trajetorias contınuas que podem ser descritas em termos de suas caracterısticas
locais. A integracao estocastica∫ t
0ϕ(s)dBs e uma ferramenta fundamental na descricao
de tais processos. Note que, como as trajetorias do movimento browniano sao de variacao
ilimitada no intervalo [0, t] (ver Teorema 9.18, pagina 110 [13]), nao podemos interpretar
essa integral no sentido de Stieltjes. Tambem sabemos que com probabilidade um a
funcao t → Bt(ω) nao possui derivada. Portanto, a integral de “∫ t
0ϕ(s)dBs” nao pode
ser definida de maneira direta.
6
No entanto, podemos definir essa integral para uma determinada classe de funcoes
fazendo uso da natureza estocastica do movimento browniano. Definida inicialmente
por K. Ito, essa integral ficou conhecida como a integral estocastica de Ito. Detalhamos
a seguir a construcao da integral de Ito.
Seja (Bt) um movimento browniano padrao unidimensional definido no espaco de
probabilidade (Ω,F , P ) e seja Ft, t ≥ 0 uma filtracao sobre esse espaco tal que:
(i) F0 contem todos os conjuntos de probabilidade nula, para F∞, onde
F∞ := σ(∪t≥0Ft) e a menor σ-algebra de F que contem todos os Ft.
(ii) FBt ⊂ Ft para cada t, onde FB
t = σ(Bs : 0 ≤ s ≤ t).
(iii) E[Bt −Bs|Fs] = 0 q.c., E[(Bt −Bs)2|Fs] = t− s q.c. para 0 ≤ s ≤ t.
O proximo passo e definir a classe dos ‘integrandos’. Uma vez definida a filtracao
com as propriedades acima, diremos que o processo e adaptado ou, (Ft)-adaptado.
Seja T > 0 fixo e H0,T definido a seguir
H0,T =
ϕ : [0, T ]× Ω→ R, (B[0, T ]×F∞)−mensuravel, adaptado,
e |||ϕ|||20,T = E
(∫ T
0
|ϕs|2ds)< +∞
.
Dizemos que dois processos quaisquer ϕ e ψ sao indistinguıveis se |||ϕ − ψ|||20,T = 0.
Ademais, H0,T pode ser visto como um subespaco de L2([0, T ]×Ω,B[0, T ]×F∞) onde,
|||.|||0,T e uma restricao da norma L2 no espaco de medida produto (Lebesgue × P ).
(Neste caso, adaptabilidade corresponde a existencia de um processo adaptado na classe
7
de equivalencia dos integrandos definida anteriormente).
Seja S o subespaco dos processos simples (e previsıveis) em H0,T
ϕ(t, .) = ξ0(.)I[0,t1](t) + Σm−1i=1 ξi(.)I(ti,ti+1](t), (1.1)
onde, 0 = t0 < . . . < tm = T e uma particao finita (determinıstica), ξi e Fti−mensuravel
e limitada, para i = 1, . . . ,m, e IB denota a funcao indicadora do conjunto B.
Para ϕ ∈ S, definimos o processo (ϕ B)t, 0 ≤ t ≤ T , por
(ϕ B)t = Σi∗−1i=1 ξi(Bti+1
−Bti) + ξi∗(Bt −Bti∗ ),
onde i∗ = i∗(t) e dado por ti∗ ≤ t ≤ ti∗+1. Equivalentemente,
(ϕ B)t = Σm−1i=0 ξi(Bt∧ti+1
−Bt∧ti), (1.2)
para 0 ≤ t ≤ T . As propriedades a seguir podem ser verificadas para todo ϕ, ϕ ∈ S:
(a) As trajetorias t→ (ϕ B)t sao contınuas;
(b) ((cϕ+ cϕ) B)t = c(ϕ B)t + c(ϕ B)t q.c., para c, c ∈ R;
(c) (ϕ B)t e uma (Ft)−martingala;
(d) (ϕ B)t(ϕ B)t −∫ t
0ϕuϕudu e uma (Ft)−martingala. Em particular,
E(ϕ B)2T = |||ϕ|||20,T . (1.3)
Inicialmente, esta integral e definida para uma classe de processos simples (e
previsıveis) em S. No entanto, nosso objetivo e expandir a integral para o espaco H0,T .
Essa expansao pode ser feita baseando-se no seguinte lema (ver Lema 2.18 [18]).
Lema 1.1 S e denso em H0,T para |||.|||20,T .
8
Note que, estamos trabalhando com martingalas a tempo contınuo e pela desigualdade
classica de Kolmogorov (que pode ser estendida do caso discreto para o caso contınuo)
[13] temos que, dado ϕ, ϕ ∈ S e y > 0,
P
[sup
0≤t≤T|(ϕ B)t − (ϕ B)t| ≥ y
]≤ 1
y2|||ϕ− ϕ|||20,T . (1.4)
Pelo Lema 1.1, dado ϕ ∈ H0,T e n ≥ 1 podemos tomar ϕ(n) ∈ S tal que |||ϕ(n) −
ϕ|||0,T ≤ 1/n3 e pela desigualdade (1.4) temos que
P
(sup
0≤t≤T
∣∣(ϕn B)t − (ϕ(n+1) B)t∣∣ ≥ 1
n2
)≤ n4
(2
n3
)2
=4
n2(1.5)
Seja An o evento do lado esquerdo da equacao (1.5). Se aplicamos o lema de Borel-
Cantelli [11], temos que a probabilidade P (An infinitas vezes) = 0. Podemos definir
N = [An infinitas vezes] e entao, P (N) = 0 de modo que N ∈ F0. Em Ω\N a sequencia
(ϕ(n) B)t(ω) converge uniformemente em t. Portanto, podemos definir
(ϕ B)t(ω) =
limn→∞(ϕ(n) B)t(ω) se ω /∈ N,
0 se ω ∈ N.
Devido a convergencia uniforme segue que a funcao t→ (ϕ B)t(ω) e contınua, para
cada ω. Alem disso, (ϕ B)t(ω) e (Ft)-mensuravel e para cada t,
limn→∞
(ϕ(n) B)t = (ϕ B)t na norma L2.
Observe que o surgimento de ds na definicao de |||.|||20,T e devido ao fato de (Bt)2 − t
ser uma martingala o que simplifica a prova do Lema 1.1 quando comparada com o caso
9
geral de martingalas a tempo contınuo. No caso geral a classe de integrandos e mais
restrita.
Seja ϕ ∈ H0,T . A ideia da prova do Lemma 1.1 e mostrar a existencia de ϕ(k) ∈ S
k ≥ 1, tal que
limk→∞
∫ T
0
E∣∣ϕs − ϕks ∣∣2ds = 0, (1.6)
onde assumimos que ϕ e limitada e que ϕt = 0 para t ≤ 0.
Definicao 3 Dado T > 0 e ϕ ∈ H0,T , o processo (ϕ Bt : 0 ≤ t ≤ T ) e chamado de
integral estocastica de Ito da funcao ϕ. A notacao mais usual e dada por∫ T
0ϕsdBs.
1.3 Equacoes Diferenciais Estocasticas
Nesta secao vamos introduzir os conceitos basicos da teoria de equacoes diferenciais
estocasticas necessarios para o desenvolvimento desta dissertacao. Uma boa referencia e
Durrett [4] capitulo 5.
De modo geral, as equacoes diferenciais estocasticas sao representadas da maneira a
seguir:
dx(t) = b(x(t))dt+ σ(x(t))dB(t), t ≥ 0;
x(0) = 0.
Em geral, dizemos que uma equacao diferencial estocastica possui solucao forte no
sentido de Ito se tivermos um processo (xs) que com probabilidade um satisfaca a seguinte
equacao na forma integral
10
x(t) =
∫ t
0
b(x(s))ds+
∫ t
0
σ(x(s))dB(s), ∀ t ≥ 0.
Definicao 4 Um processo estocastico x(t) : t ≥ 0 e chamado de um processo de
Ornstein-Uhlenbeck [17] se satisfaz a seguinte equacao diferencial estocastica:
dx(t) = −θ(x(t)− µ)dt+ σdB(t) (1.7)
As constantes parametricas sao:
• θ > 0 e a taxa de reversao a media;
• µ e a media do processo;
• σ e a magnitude das flutuacoes do movimento browniano.
A solucao exata do processo de Ornstein-Uhlenbeck com condicao inicial x(0) e dada
via formula de Ito, substituindo x(t) pela funcao auxiliar f(x, t) = xeθt e integrando de
0 a t temos:
x(t) = x(0)e−θt + µ(1− e−θt) + σ
∫ t
0
e−θ(t−s)dB(s), 0 ≤ t <∞, (1.8)
onde x(0) e a condicao inicial.
Alem do processo (x(t)) ser gaussiano e markoviano ele possui certas caracterısticas
muito interessantes. Para uma discussao da motivacao fısica por tras do processo de
Ornstein-Uhlenbeck uma referencia classica e Nelson [17]. Ademais, observe que se
fixarmos um valor para media µ podemos analisar o comportamento do processo para
diversos valores de θ.
Em geral, esperamos que quanto maior o parametro θ mais concentrado em torno
da media se encontra o sistema. A seguir simulamos o comportamento de N processos
11
independentes para diversos valores de θ.
Figura 1.1: σ = 1, θ = 1, µ = 0, N = 10.
12
Figura 1.2: σ = 1, θ = 6, µ = 0, N = 10.
Figura 1.3: σ = 1, θ = 1, µ = −1, N = 50.
13
Figura 1.4: σ = 1, θ = 6, µ = −1, N = 50.
Figura 1.5: σ = 1, θ = 6, µ = 1, N = 10.
14
Capıtulo 2
Estudo do modelo
2.1 O Modelo
A seguir vamos analisar um modelo de difusoes interangentes (proposto por [9])
composto por N componentes (agentes) que interagem entre si via campo medio.
Denotaremos por xj(., .) : [0, T ] × Ω → R a trajetoria (caminho) amostral de cada
componente j, de modo que, cada xj(t) interage com a media x(t) = 1N
∑Nj=1 xj(t). A
evolucao dinamica do sistema possui as seguintes caracterısticas:
• O sistema apresenta um comportamento metaestavel em torno dos pontos +1 e
−1.
• O sistema possui um mecanismo de estabilizacao.
• O sistema sofre a acao de um ruıdo aleatorio.
• O sistema apresenta um parametro de reversao a media que determina o grau de
interacao de cada componente com a media do sistema.
• As condicoes iniciais sao xj(0) = 0 ∀ j = 1, . . . , N .
Um modelo que possui as caracterısticas desejadas, isto e, interacoes via campo medio
e com as condicoes estabelecidas acima pode ser descrito matematicamente por um
sistema de equacoes diferenciais estocasticas de Ito da seguinte forma:
15
dxj(t) = −hU(xj(t))dt+ θ(x(t)− xj(t))dt+ σdBj(t), ∀j = 1 . . . , N, (2.1)
onde:
• U(x) = V ′(x) = x3 − x e o campo (forca) do sistema.
• h e o parametro de estabilizacao do sistema.
• θ > 0 representa o parametro de reversao a media.
• σ2 > 0 representa o coeficiente de difusao.
• Bj(t)Nj=1 e uma sequencia de movimentos browniano padrao e independentes.
A evolucao do sistema e portanto caracterizada pelas condicoes iniciais
(x1(0), . . . , xN(0)), pelos parametros (h, σ, θ) e pelo tamanho N do sistema. Nosso
objetivo e analisar a media empırica x(t) do conjunto atraves do sistema de equacoes
diferenciais estocasticas (2.1).
Observe que esse sistema possui um termo nao linear dado por U(x) que dificulta a
analise direta da media empırica e nos conduz a analisar a medida empırica do sistema, ou
seja, vamos analisar processos que tomam valores no espaco das medidas de probabilidade
M1(R).
Antes de entrar nos detalhes do modelo principal vamos analisar um modelo linear
mais simples e esclarecer as principais diferencas entre esses modelos, estabelecendo um
paralelo entre os principais pontos de interesse do modelo principal a partir do modelo
linear mais simples.
2.2 Modelo Simplificado
Nesta subsecao vamos analisar um modelo com caracterısticas semelhantes ao modelo
principal, porem, com uma estrutura bem mais simples. Basicamente temos um sistema
16
linear difusivo onde cada componente interage com o conjunto de modo semelhante
ao modelo principal, ou seja, as interacoes ocorrem via campo medio. No entanto,
diferentemente do modelo principal que apresenta uma estrutura biestavel e cujo
interesse e analisar um grande desvio da media, isto e, a probabilidade de transicao de
uma regiao normal para uma regiao de falha, nosso objetivo sera analisar a probabilidade
(da media empırica) de um grande numero de componentes ultrapassar um determinado
nıvel pre-estabelecido. No contexto adotado nesta dissertacao a probabilidade deste
evento sera chamada de risco sistemico.
De modo analogo ao modelo inicialmente proposto queremos analisar este processo
e determinar a probabilidade de ocorrencia de um evento sistemico. Em particular
estamos interessados em analisar o decaimento de um grande numero de componentes
a um determinado nıvel “η < 0” em um intervalo de tempo finito [0, T ]. O principal
objetivo desta secao e analisar o risco sistemico em um modelo linear mais simples
utilizando como estatıstica o limite de campo medio do sistema e determinar uma
estimativa de grandes desvios para este modelo.
Neste caso o sistema difusivo com interacoes via campo medio pode ser descrito
matematicamente por um sistema de equacoes diferenciais estocasticas de Ito da seguinte
forma
dxj(t) = θ(x(t)− xj(t))dt+ σdBj(t), j = 1, . . . , N
xj(0) = 0,(2.2)
onde
• xj(t) representa a trajetoria de cada componente do sistema para j = 1 . . . , N .
• θ > 0 representa o parametro de reversao a media.
• σ2 > 0 representa o coeficiente de difusao.
17
• Bj(t)Nj=1 e uma sequencia de movimentos browniano padrao e independentes.
Observacao: Nas simulacoes a condicao inicial utilizada e xj(0) = −1, pois note
que o interesse principal sera avaliar as transicoes entre as regioes +ξ em torno de
+1 para −ξ em torno de −1 e vice-versa.
Queremos analisar o risco sistemico atraves da estatıstica x(t) no limite quando N →
∞. Podemos reescrever a equacao (2.2) da seguinte forma:
dxj(t) = θ
[(1
N
N∑i=1
xi(t)− xj(t)
)]dt+ σdBj(t), j = 1, . . . , .
Aplicando o somatorio em “j” e dividindo por “N” em ambos os lados temos
d
(1
N
N∑j=1
xj(t)
)= d
(σ
N
N∑j=1
Bj(t)
),
1
N
N∑j=1
xj(t) =σ
N
N∑j=1
Bj(t).
Logo, a media empırica do conjunto possui a mesma distribuicao da media de N
movimentos brownianos independentes com coeficiente de difusao σ2, sendo portanto um
movimento browniano com coeficiente de difusao σ2/N .
Podemos escrever (2.2) da seguinte forma
dxj(t) = θ
[(σ
N
N∑i=1
Bi(t)
)− xj(t)
]dt+ σdBj(t), (2.3)
com solucao dada por
xj(t) =σ
N
N∑i=1
Bi(t) + σe−θt∫ t
0
eθsdBj(s)−σ
N
N∑i=1
(e−θt
∫ t
0
eθsdBi(s)
)(2.4)
18
∀ j = 1, . . . ,.
Pela lei forte dos grandes numeros no limite quando N →∞ temos que
1
N
N∑i=1
Bi(t)→ 0, q.c.
e neste caso o processo e analogo a (1.7) com µ = 0. Daı pode-se ver que os processos xj(t)
convergem para para processos de Ornstein - Uhlenbeck independentes para j = 1, . . .
dxj(t) = −θxj(t)dt+ σdBj(t)
xj(0) = 0
cuja solucao e dada por
xj(t) = σe−θt∫ t
0
eθsdBj(s); 0 ≤ t <∞. (2.5)
Para verificar a convergencia lembremos (2.4). Ja sabemos que o primeiro termo do
lado direito tende a zero quase certamente e podemos ver que o terceiro converge em
probabilidade e em L2 a zero quando N → ∞. De fato, seu valor esperado e zero e o
segundo momento e dado por
[σ
N
N∑i=1
(e−θt
∫ t
0
eθsdBi(s)
)]2
≤ σ2
Ne−2θt
(e2θt
2θ
).
No entanto, estamos interessados em obter aproximacoes no calculo das
probabilidades de “grandes desvios”, ou seja, determinar o comportamento de
certos “eventos raros” (que possuem probabilidade tendendo a zero) de modo a obter
estimativas mais precisas para probabilidade desses eventos, quando N → +∞.
O estudo de grandes desvios foi feito inicialmente por Cramer tratando de grandes
desvios com relacao a lei dos grandes numeros no estudo de problemas assintoticos
para sequencias de variaveis aleatorias independentes e identicamente distribuıdas.
19
Posteriormente seu trabalho foi ampliado por Chernoff (1952) e se desenvolveu para
diversos tipos de processos, na mecanica estatıstica em situacoes de dependencia entre
as variaveis aleatorias. Uma formulacao geral deve-se a Varadhan [21].
A analise de “grandes desvios” em situacoes de dependencia entre as variaveis
aleatorias surge naturalmente na mecanica estatıstica, no estudo do comportamento de
propriedades macroscopicas de sistemas termodinamicos em equilıbrio. No contexto do
modelo apresentado nesta secao o principal interesse e analisar o risco sistemico baseado
no evento [min
0≤t≤T
1
N
N∑j=1
xj(t) ≤ η
].
Pela simplicidade do modelo verificamos facilmente que a media empırica do sistema
possui a mesma distribuicao da media de N movimentos brownianos independentes
com coeficiente de difusao σ2, que de fato, e um movimento browniano com coeficiente
de difusao σ2/N que denotaremos por B. Dessa forma, podemos calcular a seguinte
probabilidade
P
(min
0≤t≤T
σ
N
N∑j=1
Bj(t) ≤ η
)= P
(min
0≤t≤TB(t) <
η√N
σ
)
= 2Φ
(η√N
σ√T
), (2.6)
onde a ultima igualdade na equacao (2.6) e devida ao princıpio da reflexao do movimento
browniano.
Queremos calcular o limite
limN→∞
− 1
NlogP
(min
0≤t≤TB(t) ≤ η
√N
σ
)= lim
N→∞− 1
Nlog 2Φ
(η√N
σ√T
)
e para isso vamos considerar o seguinte Lemma [8].
20
Lema 2.1 Quando x→∞
∫ +∞
x
1√2πe−
12y2dy ∼ x−1 1√
2πe−
12x2 ;
mais precisamente, a seguinte desigualdade
[x−1 − x−3]1√2πe−
12x2 <
∫ +∞
x
1√2πe−
12y2dy < x−1 1√
2πe−
12x2
e valida para todo x > 0.
Aplicando o Lema acima,
limN→∞
− 1
Nlog 2Φ
(η√N
σ√T
)= lim
N→∞− 1
Nlog
(∫ η√N
σ√T
−∞
2√2πe−u22 du
)
= limN→∞
− 1
Nlog
2√2π
e− η2N
2σ2T
−η√N
σ√T
= lim
N→∞− 1
N
[log
(2√2π
)+ log
(e−
η2N
2σ2T
)− log
(−η√N
σ√T
)]
=η2
2σ2T.
limN→∞
− 1
NlogP
(min
0≤t≤TB(t) <
η√N
σ
)=
η2
2σ2T.
Portanto, a probabilidade desejada e dada por
P
(min
0≤t≤T
1
N
N∑j=1
xj(t) < η
)≈ exp(−η2N/(2σ2T )), (2.7)
o sımbolo ′′ ≈′′ em (2.7) deve ser interpretado como uma equivalencia logarıtmica.
Note que a equacao (2.7) nao depende de θ, portanto, a probabilidade de um evento
sistemico, isto e, um evento onde ocorre a falha de grande parte ou de ate mesmo todo
21
sistema, independe da taxa de reversao a media, ou seja, aumentar a estabilidade do
sistema aumentando os valores de θ nao interfere na ocorrencia ou nao de um evento
sistemico. Em contrapartida, quanto maior θ, mais concentrado em torno da media e
o sistema, e caso ocorra um evento sistemico maior sera a quantidade de elementos que
geram este evento.
Podemos ainda estar interessados em analisar a probabilidade do tempo esperado ate
que um grande numero de componentes caia abaixo de um determinado nıvel η pela
primeira vez, isto e, calcular a probabilidade P (τ < t) onde τ = mint : x(t) < η.
O calculo desta probabilidade foi feito com detalhes em [14] no caso em que temos N
processos de Ornstein - Uhlenbeck independentes.
A seguir vamos analisar o modelo principal e desenvolver um estudo analogo ao que
foi feito no modelo mais simples com uma abordagem mais complexa e mais detalhada
do modelo.
2.3 Analise do Modelo
Nesta secao vamos analisar o modelo principal representado pelo seguinte sistema de
equacoes diferenciais estocasticas
dxj(t) = −hU(xj(t))dt+ θ(x(t)− xj(t))dt+ σdBj(t), j = 1, . . . N
xj(0) = 0,(2.8)
onde:
• U(x) = V ′(x) = x3 − x e o campo (forca) do sistema.
• h e o parametro de estabilizacao do sistema.
• θ > 0 representa o parametro de reversao a media.
• σ2 > 0 representa o coeficiente de difusao.
• Bj(t)Nj=1 e uma sequencia de movimentos browniano padrao e independentes.
22
O principal objetivo desta secao e estudar o limite (macroscopico) da distribuicao
empırica quando N → ∞. A analise deste modelo foi feita por Dawson em 1983 [3]
garantindo que o mesmo esta bem definido.
Vale ressaltar que a analise desse modelo sera feita para valores pequenos de h, pois
sendo h um parametro de estabilizacao do sistema. Se h for grande a inclinacao ao redor
da regiao de equilıbrio aumenta, dificultando as possıveis transicoes de uma regiao estavel
para outra. Portanto, vamos sempre assumir h pequeno.
2.3.1 Limite de Campo Medio
De modo analogo ao modelo simples queremos analisar o comportamento sistemico
do processo (2.8) atraves da media empırica x(t), no entanto, essa analise nao sera feita
de forma direta, pois o processo e nao linear. Portanto, ao inves de analisar a media
empırica do processo precisamos analisar a medida empırica deste processo no limite
quando N →∞. Antes de entrarmos nos detalhes dessa analise vamos fazer as seguintes
definicoes:
Definicao 5 Seja (Ω,A) um espaco mensuravel. Para x ∈ Ω definimos δx como
δx(A) =
1, se x ∈ A
0, c.c.
Dizemos que δx e a medida de Dirac concentrada em x.
Definicao 6 Seja M1(R) o conjunto de medidas de probabilidade em R, munido com a
topologia da convergencia fraca e C ([0, T ],M1(R)) o conjunto de funcoes contınuas em
[0, T ] que tomam valores em M1(R). Define-se a medida de probabilidade empırica do
processo XN(t, dy) := 1N
∑Nj=1 δxj(t)(dy) de modo que XN(., .) pertence C([0, T ], M1(R)).
Diremos que XN(t, dy) converge fracamente para u(t, y)dy denotando por
XN(t, dy)→ u(t, y)dy se para toda funcao contınua e limitada f : R → R temos que
limN→∞
∫ ∞−∞
f(y)XN(t, dy) =
∫ ∞−∞
f(y)u(t, y)dy.
23
Consideramos sobre M1(R) a topologia da convergencia fraca. Esta pode ser obtida
atraves de uma metrica adequada a qual denotaremos por ρ, de modo que, dada ψ, φ ∈
C([0, T ],M1(R)), dT (φ, ψ) = sup0≤t≤T ρ(φ(t), ψ(t)). Como ρ podemos tomar por exemplo
a metrica de Prohorov.
A seguir vamos vamos definir a metrica de Prohorov, uma boa referencia pode ser
encontrada em Billingsley [1] ou em Kurtz [6].
Seja (M,d) um espaco metrico (d denota a metrica nesse espaco) e B(M) a σ−algebra
de subconjuntos de Borel em M . Seja P (M) a famılia de medidas de probabilidade em
(M,B(M)). Para um subconjunto A ⊂M , define-se uma vizinhanca ε de A por
Aε := p ∈M |∃q ∈ A, d(p, q) < ε =⋃p∈A
Bε(p).
onde Bε(p) e uma bola aberta de centro p e raio ε.
A metrica de Prohorov π : P(M)2 → [0,+∞) e definida pela distancia entre as duas
medidas de probabilidade µ e ν como
π(µ, ν) := inf ε > 0|µ(A) ≤ ν(Aε) + ε e ν(A) ≤ µ(Aε) + ε para todo A ∈ B(M) .
A seguir vamos enunciar o teorema do limite de campo medio para a medida empırica
XN , o qual foi provado por Dawson [3] em 1983.
Teorema 2.3.1 (Dawson, 1983) [3] Assuma que a forca seja dada por U(y) = y3 −
y e que XN(0) convirja fracamente para uma medida de probabilidade ν0. No limite
quando N → ∞ o processo XN converge fracamente para um processo determinıstico
com densidade de probabilidade u(t, y)dy ∈ C([0, T ], M1(R)), que e a unica solucao fraca
da equacao de Fokker-Planck:
∂
∂tu = h
∂
∂y[U(y)u]− θ ∂
∂y
[∫ ∞−∞
yu(t, y)dy − y]u
+
1
2σ2 ∂
2
∂y2u, (2.9)
com condicao inicial ν0.
24
Pelo Teorema acima o processo XN(., .) que toma valores em M1(R), no limite
quando N → ∞ converge para trajetoria determinıstica com densidade u(t, y)dy, onde
u(.) e unica solucao da equacao de Fokker-Planck (2.9) associada ao sistema (2.8) do
qual temos interesse em determinar a solucao.
Antes de entrar nos detalhes do Teorema vamos verificar que o sistema nao linear
dx(t) = −U(x(t))dt+ θ(m(t)− x(t))dt+ σdB(t),
m(t) := E(x(t)),
x(0) = x0.
(2.10)
possui uma unica solucao forte (Apendice A.1 Dawson [3]). Vale ressaltar a diferenca
entre o sistema (2.10) e a equacao usual (2.1), o sistema (2.10) possui um termo m(t) :=
E(x(t)) que depende da lei do processo no tempo t e nao possui o parametro h, pois
neste caso a determinacao de uma solucao forte para (2.10) independe deste parametro,
visto que, h determina a amplitude da funcao U(x(t)).
Demonstracao 3 I) Suponha que exista uma solucao x(t) para equacao
dx(t) = −U(x(t))dt+ θ(m(t)− x(t))dt+ σdB(t)
x(0) = x0,
tal que m(t) = E(x(t)).
Queremos mostrar que m(t) e limitada em [0, T ] para todo T <∞.
De modo geral, seja x(.) a solucao de uma equacao linear de primeira ordem do tipo
dx(t)/dt = −f(t)x(t) + g(t), x(0) = x0.
25
Multiplicando esta equacao pelo fator de integracao exp[∫ t
0f(s)ds] temos,
x(t) exp
[∫ t
0
f(s)ds
]− x0 =
∫ t
0
g(s) exp
[∫ s
0
f(u)du
]ds.
Podemos reescrever a equacao (2.10) da seguinte forma:
dx(t) = [−x(t)3 + (1− θ)x(t)]dt+ σdB(t) + θm(t)dt,
m(t) := E(x(t)),
x(0) = x0.
Se tomarmos f(t) = [(θ − 1) + x2(t)] e g(t) = σdB(t) + θm(t) onde dB(t) denota
a derivada generalizada do movimento browniano. Podemos aplicar o mesmo raciocınio
utilizado anteriormente e escrever a seguinte equacao:
x(t)exp
[∫ t
0
f(s)ds
]= x0 + θ
∫ t
0
m(s)exp
[∫ s
0
f(u)du
]ds+ σ
∫ t
0
exp
[∫ s
0
f(u)du
]dB(s),
x(t) = x0exp
[−∫ t
0
f(s)ds
]+θ∫ t
0m(s)exp
[∫ s0f(u)du
]ds
exp[∫ t
0f(s)ds
] +σ∫ t
0exp
[∫ s0f(u)du
]dB(s)
exp[∫ t
0f(s)ds
] .
Integrando o numerador do ultimo termo por partes tomando u = exp[∫ s
0f(u)du
]e
dv = dB(s) temos que
x(t) = x0exp
[−∫ t
0
f(s)ds
]+ θ
∫ t
0
m(s)exp
[−∫ t
s
f(u)du
]ds+ σB(t)
− σe(1−θ)texp
[−∫ t
0
x2(s)ds
] ∫ t
0
B(s)
[(θ − 1) + x2(s)
]e(θ−1)sexp
[∫ s
0
x2(u)du
]ds.
26
Observe que a ultima parcela da equacao acima pode ser escrita como
σe(1−θ)texp[−∫ t
0x2(s)ds
] ∫ t
0
B(s)
[(θ − 1) + x2(s)
]e(θ−1)sexp
[∫ s
0
x2(u)du
]ds
= σe(1−θ)texp[−∫ t
0x2(s)ds
] ∫ t
0
B(s)[(θ − 1) + x2(s)]exp
[∫ s
0
((θ − 1) + x2(u)
)du
]ds
≤ σexp[−∫ t
0f(s)ds
]sup
0≤s≤t|B(s)|
∫ t
0
(|θ − 1|+ x2(s)
)exp
(∫ s
0
((θ − 1) + x2(s)
)du
)ds
Portanto, no caso em que θ > 1 ou θ < 1 podemos determinar uma cota superior
para a integral acima separando a integral da soma na soma das integrais
E|x(t)| ≤ |x0|e(1−θ)t + θ
∫ t
0
|m(s)|e(1−θ)(t−s)ds
+ σE|B(t)|+ σE
sup
0≤s≤t|B(s)|
(1 + e(θ−1)t).
Pela desigualdade de Doob
E
sup
0≤s≤t|B(s)|
≤ E
sup
0≤s≤t|B(s)|2
12
≤ 2t12 .
Fazendo m+(t) = E|x(t)|,
m+(t) ≤ |x0|e(1−θ)t + 2σt12 + θ
∫ t0m+(t)e(1−θ)(t−s)ds+ 2σt
12 (1 + e(θ−1)t).
Logo, para 0 ≤ t ≤ T e θ 6= 0
m+(t) ≤ (K|x0|+ 2σT12 )exp
(θ + θet(1−θ)/|1− θ|
).
onde, K = max(1, e(1−θ)T ).
Pela desigualdade de Jensen [11] m(t) ≤ |m(t)| ≤ m+(t), portanto, m(t) e limitado
para t ∈ [0,∞] garantindo que nao existem explosoes na equacao (2.10).
A seguir sera mostrado que o sistema (2.10) possui solucao forte. Antes disso, note
que, pelo Teorema de Cameron - Martin - Girsanov [13] juntamente com o fato da solucao
27
do sistema ser nao explosiva temos que a seguinte equacao diferencial estocastica
dx(t) = [−(x(t))3 + x(t)]dt+ σdB(t)− θx(t)dt+ θx(0).
possui uma unica solucao forte.
Demonstracao 4 II) O sistema (2.10) possui solucao forte.
Pelo metodo iterativo de Picard:
Seja x(1)(t) a unica solucao forte da equacao
dx(1)(t) = [−(x(1)(t))3 + x(1)(t)]dt+ σdB(t)− θx(1)(t)dt+ θx(0).
De modo geral, seja x(n)(t) a unica solucao forte da equacao
dx(n)(t) = [−(x(n)(t))3 + x(n)(t)]dt+ σdB(t)− θx(n)(t)dt+ θE[x(n−1)(t)],
x(n+1)(t)− x(n+1)(0) =
∫ t
0
[−(x(n+1)(t))3 + (1− θ)x(n+1)(s)]ds+ σB(t)
+ θ
∫ t
0
m(n)(s)ds
m(n)(t) := E[x(n)(t)].
Estabelecemos o seguinte esquema iterativo para n ≥ 1,
x(n+1)(t)− x(n)(t) =
∫ t
0
(1− θ)[x(n+1)(s)− x(n)(s)]ds−∫ t
0
[(x(n+1)(s))3 − (x(n)(s))3]ds
+ θ
∫ t
0
[m(n)(s)−m(n−1)(s)]ds.
Fatorando a diferenca dos cubos temos da seguinte forma
28
(y3 − x3) = (y − x)(y2 + xy + x2) = 12(x− y)[(x+ y)2 + x2 + y2] temos:
x(n+1)(t)− x(n)(t) =
∫ t
0
(1− θ)[x(n+1)(s)− x(n)(s)]ds−∫ t
0
[x(n+1)(s)− x(n)(s)]f(s)ds
+ θ
∫ t
0
[m(n)(s)−m(n−1)(s)]ds,
onde x(n+1)(0)−x(n)(0) = 0 e f(s) = 12[x(n+1)(s) + x(n)(s)]2 + [(x(n+1)(s))2 + (x(n)(s))2] ≥ 0.
Multiplicando pelo fator de integracao exp[∫ t
0f(s)ds] e integrando por partes como no
passo anterior temos
x(n+1)(t)− x(n)(t) = θ
∫ t
0
e(t−s)(θ−1)exp
[−∫ t
s
f(u)du
]. [m(n)(s)−m(n−1)(s)]ds.
Logo, para 0 ≤ t ≤ T
|m(n+1)(t)−m(n)(t)| ≤ K
∫ t
0
|[m(n)(s)−m(n−1)(s)]|ds,
onde K = θmax(1, eT (θ−1)).
De modo iterativo podemos determinar uma cota superior para |m(n+1)1 (t) −m(n)
1 (t)|
da seguinte forma
|m(n+1)(t)−m(n)(t)| ≤ K
∫ t
0
|[m(n)(s)−m(n−1)(s)]|ds
≤ K
∫ t
0
K
∫ s1
0
|m(n−1)(s1)−m(n−2)(s1)|ds1ds
≤ Kn
∫ t
0
∫ s1
0
...
∫ sn−1
0
|m(1)(sn−1)−m(0)(sn−1)|dsn−1...ds1ds
≤ KnT n/n!
Portanto, a sequencia m(n)(t) : 0 ≤ t ≤ T definida no espaco metrico (C([0, T ]), d),
onde d(x, y) = sup|x(t)− y(t)|; t ∈ [0, T ] e a metrica do supremo, e uma sequencia de
29
Cauchy. Seja m(t) o limite uniforme de mn(t).
Vamos partir de um argumento analogo ao anterior para mostrar que (2.10) possui
solucao forte.
Seja x(.) a unica solucao forte da equacao
dx(t) = [−x(t)3 + (1− θ)x(t)]dt+ σdB(t) + θm(t)dt,
temos que,
x(t)− x(n)(t) =
∫ t
0
(1− θ)[x(s)− x(n)(s)]ds−∫ t
0
[x3(s)− (x(n)(s))3]ds
+ θ
∫ t
0
[m(s)−m(n−1)(s)]ds.
Fatorando a diferenca de cubos como anteriormente temos,
x(t)− x(n)(t) =
∫ t
0
(1− θ)[x(s)− x(n)(s)]ds−∫ t
0
[x(s)− x(n)(s)]f(s)ds
+ θ
∫ t
0
[m(s)−m(n−1)(s)]ds,
onde x(0)− x(n)(0) = 0 e f(s) = 12[x(n+1)(s) + x(n)(s)]2 + (x(n+1)(s))2 + (x(n)(s))2 ≥ 0.
Multiplicando pelo fator de integracao exp[∫ t
0f(s)ds] e integrando por partes como
nos passos anteriores,
x(t)− x(n)(t) = θ
∫ t
0
e(t−s)(θ−1)exp
[−∫ t
s
f(u)du
]. [m(s)−m(n−1)(s)]ds
Logo, para 0 ≤ t ≤ T
|E[x(t)]−m(n)(t)| ≤ K
∫ t
0
|m(s)−m(n−1)(s)|ds.
30
Portanto, m(n)(t) converge para E[x(t)] e sabemos que a sequencia dos m(n)(t)
converge para m(t). Logo, segue que E[x(t)] = m(t) garantindo dessa forma a existencia
de uma solucao forte para a equacao (2.10).
III) Unicidade da solucao.
Para mostrar a unicidade da solucao vamos supor que existem duas solucoes de (2.10)
x1(t) e x2(t), onde m(1)(t) = E[x1(t)] e m(2)(t) = E[x2(t)]. Como antes podemos escrever
a seguinte desigualdade,
|m(2)(t)−m(1)(t)| ≤ |m(2)(0)−m(1)(0)|+K
∫ t
0
|m(2)(s)−m(1)(s)|ds, (2.11)
onde m(2)(0) = m(1)(0) = E[x0].
Desigualdade de Gronwall [4] (Durret capıtulo 5 pagina 188).
Suponha que ϕ(t) ≤ A + B∫ s
0ϕ(s)ds para todo t ≥ 0 e ϕ(t) contınua. Entao
ϕ(t) ≤ AeBt.
Pela desigualdade de Gronwall,
|m(2)(t)−m(1)(t)| ≤ 0.eKt = 0. (2.12)
Logo, m(2)(t) = m(1)(t), estabelecendo dessa forma a unicidade da solucao.
Uma segunda etapa muito importante e mostrar que a equacao de Fokker - Planck
(2.9) possui uma unica solucao a valores medida.
A seguir vamos verificar a existencia de uma solucao. Devido ao grau de complexidade
a unicidade nao sera vista nesta dissertacao. A principal referencia e o artigo do Dawson
(Apendice A.2 Dawson 1983 [3]).
31
Demonstracao 5 I - Existencia.
Seja x(.) a solucao da equacao (2.10). Seja φ ∈ S , onde S e o espaco das funcoes
teste de Schwartz, pela formula de Ito temos que:
φ(x(t))− φ(x(0))−∫ t
0
[(−x3(s) + x(s)(1− θ))φ′(x(s)) +1
2σ2φ′′(x(s)) + θm1(t)φ′(x(s))]ds
e uma martingala.
Se p(t;dx) denota a lei de x(t). Entao a condicao de martigala acima implica que p(.
; .) e uma solucao a valores medida de probabilidade da equacao nao linear (2.9).
Tendo feito tais consideracoes a construcao do Teorema (2.3.1) e baseada nos dois
seguintes passos[3]:
1. Mostrar que a famılia de processos e relativamente compacta.
Para provar que a famılia de processos XN(t, .) e relativamente compacta em
C([0, T ],M1(R)) e suficiente provar que:
• supN sup0≤t≤T E(〈XN(t), |x|〉) <∞.
• Para cada φ ∈ CK(R), o espaco de funcoes com suporte compacto, os processos
〈XN(.), φ〉 sao relativamente compacto em C[0, T ].
2. Determinacao do limite.
Seja PN a lei de probabilidade do processo a valores medida XN . O fato do processo
XN ser relativamente compacto implica na existencia de uma subsequencia PNk →
u. Bastando provar que u e a unica solucao do processo a valores medida u(t) :
t ≥ 0.
Portanto, pelo Teorema 2.3.1, podemos analisar u e tratar XN como uma pertubacao
de u para valores de N grande e considerar x(t) da mesma forma pois x(t) =
32
∫∞−∞ yXN(t, dy). Em geral, nao existem solucoes explıcitas disponıveis para (2.9) mas
podemos encontrar solucoes de equilıbrio, ou seja, as solucoes quando t→∞ assumindo
ξ = limt→∞
∫∞−∞ yu(t, y)dy. A solucao ueξ no limite satisfaz:
hd
dy[(y3 − y)ueξ]− θ
d
dy[(ξ − y)ueξ] +
1
2σ2 d
2
dy2ueξ = 0,
ueξ(y) =1
Zξ
√2π σ
2
2θ
exp
−(y − ξ)2
2σ2
2θ
− h 2
σ2V (y)
,
Zξ =
∫ ∞−∞
1√2π σ
2
2θ
exp
−(y − ξ)2
2σ2
2θ
− h 2
σ2V (y)
dy.
(2.13)
onde Zξ e a constante normalizadora. E ξ deve satisfazer a condicao de consistencia ou
compatibilidade:
ξ = m(ξ) :=
∫ ∞−∞
yueξ(y)dy. (2.14)
Logo encontrar solucoes de equilıbrio se reduz a encontrar solucoes dessa equacao.
Para θ fixo, o modelo foi definido de modo que a especificacao de um valor crıtico
para σ e de extrema importancia, pois se σc ≤ σ, a influencia das pertubacoes externas
sob o sistema aumenta de tal forma que a aleatoriedade passa a dominar a interacao
entre os componentes, ou seja, a interacao devido ao fator θ(x(t) − xj(t))dt se torna
desprezıvel e neste caso o sistema se comporta como N difusoes independentes.
Neste caso, o sistema possui um comportamento instavel entre as regioes +ξ e
−ξ devido a simetria da funcao V (xj(t)) = xj(t)4/4 − xj(t)
2/2. Logo, temos um
processo de media zero.
Portanto, estamos interessados no caso em que σ e pequeno, σ < σc, pois neste caso
o termo difusivo σdBj(t) possui uma influencia menor sob o sistema e a interacao de
cada componente com a media empırica passa a ter maior significancia devido a parcela
θ(x(t)− xj(t))dt. Nestas condicoes uma grande parte dos componentes permanecem em
33
torno da mesma regiao por um longo intervalo de tempo, isto e, das regioes +ξ ou
−ξ. Por esse motivo vamos sempre considerar σ < σc.
Proposicao 2.1 (Garnier, Papanicolaou, Yang, 2013) Para h pequeno, o valor critıco
σc pode ser expandido como
σc =
√2θ
3+O(h). (2.15)
Pode ser mostrado [9], que as solucoes nao nulas ±ξ sao da forma:
±ξ = ±√
1− 3σ2
2θ
(1 + h
6
σ2
(σ2
2θ
)21− 2(σ2/2θ)
1− 3(σ2/2θ)
)+O(h2). (2.16)
Pela proposicao 2.3 e possivel determinar uma relacao entre os parametros que
garante a existencia de estados bi-estaveis. A seguir vamos mostrar que, dados θ e h
pequeno, a equacao (2.14) possui solucoes nao nulas se e somente se 3σ2
2θ< 1.
Demonstracao 6 Relacao Entre σ2 e θ.
Como estamos supondo h pequeno, com base em (2.13) podemos considerar a
densidade de ueξ como sendo uma pertubacao da funcao densidade da normal. Seja Y
uma variavel aleatoria com distribuicao normal de media ξ e variancia σ2/2θ, e seja pξ
sua densidade.
Sabemos que:
Zξ =
∫ ∞−∞
1√2π σ
2
2θ
exp
−(y − ξ)2
2σ2
2θ
− h 2
σ2V (y)
dy. (2.17)
Fazendo a expansao da serie de Taylor em torno de h do termo exp(−hηV (y)) e
34
definindo η = 2/σ2, segue que:
exp(−hηV (y)) = 1− hηV (y) + h2η2V 2(y)/2 +O(h3),
Zξ =
∫1− hηV (y) + h2η2V 2(y)/2 +O(h3)pξ(y)dy,
e
= E[1− hηV (Y ) + h2η2V 2(Y )/2 +O(h3)]
= 1− hηEV (Y ) +1
2h2η2EV 2(Y ) +O(h3).
Daı, tambem obtemos
Z−1ξ = 1 + hηEV (Y )− 1
2h2η2EV 2(Y ) + h2η2(EV (Y ))2 +O(h3).
Portanto, podemos calcular m(ξ) da seguinte forma:
m(ξ) = Z−1ξ
∫y
(1− hηV (y) +
1
2h2η2V 2(y) +O(h3)
)pξ(y)dy (2.18)
= Z−1ξ
(ξ − hηE[Y V (Y )] +
1
2h2η2E[Y V 2(Y )] +O(h3)
)= ξ + hηξEV (Y )− E[Y V (Y )]+ h2η2−1
2ξEV 2(Y ) + ξ(E(V (Y ))2
− EV (Y )E[Y V (Y )] +1
2E[Y V 2(Y )]+O(h3)
= ξ − hησ2
2θEV (Y ) + h2η2σ
2
2θE[V (Y )V (Y )]− EV (Y )EV (Y )+O(h3)
= ξ − hησ2
2θEV (Y ) + h2η2σ
2
2θcov(V (Y ), V (Y )) +O(h3).
onde o termo V (Y ), que surge na penultima igualdade, foi especificado no artigo de J.
35
Garnier, G. Papanicolaou e T. Yang [9] (apendice A, pagina 20).
Pela condicao (2.14) ξ = m(ξ) segue que,
EV (Y )− hηcov(V (Y ), V (Y )) +O(h2) = 0. (2.19)
Assumindo que ξ = ξ0 + hξ1 +O(h2) temos,
ξ30 − 3
σ2
2θξ0 − ξ0 = ξ0(ξ2
0 + 3σ2
2θ− 1) = 0. (2.20)
Portanto as solucoes sao: ξ = ±√
1− 3σ2/2θ e ξ = 0.
2.4 Modelo Heterogeneo
Uma generalizacao do modelo tambem e apresentada em [9] para o caso em que cada
agente possui uma taxa individual de reversao a media, isto e, para j = 1, . . . , N temos
um sistema de equacoes diferenciais estocasticas da seguinte forma
dxj(t) = −hU(xj(t))dt+ θj(x(t)− xj(t))dt+ σdwj(t). (2.21)
Como antes temos U(x) = V ′(x) e agora consideramos o caso em que θ1, . . . , θN
assume K valores positivos distintos Θ1, . . . ,ΘK e definimos Il = j : θj = Θl,
ρl = |Il|/N e X lN = 1
ρlN
∑j∈Il δxj assumindo que o limN→∞ ρl existe e e positivo para todo
l. O limite de (X1N , . . . , X
KN ) quando N → ∞ e dado pelas solucoes fracas (u1, . . . , uK)
do conjunto de K equacoes de Fokker-Planck apresentadas no Teorema a seguir.
Teorema 2.4.1 (Garnier, Papanicolaou, Yang, 2013) Assuma U(y) = y3 − y e
que (X1N(0), . . . , XK
N (0)) converge fracamente em probabilidade para uma medida de
probabilidade (ν1, . . . , νk). O vetor (X1N , . . . , X
KN ) converge fracamente a valores medida
quando N → ∞ para o vetor de solucoes fraca (u1, . . . , uK) do sistema de equacoes de
Fokker-Planck:
36
∂
∂tu1 =
1
2σ2 ∂
2
∂y2u1 −Θ1
∂
∂y
[∫y∑
ρlul(t, y)dy − y]u1
+ h
∂
∂y[U(y)u1]
...
∂
∂tuK =
1
2σ2 ∂
2
∂y2uK −Θk
∂
∂y
[∫y∑
ρlul(t, y)dy − y]uK
+ h
∂
∂y[U(y)uK ],
(2.22)
com condicoes iniciais (ν1, . . . , νk). As solucoes de equilibrio uel ,ξ possuem a seguinte
forma:
uel ,ξ(y) =1
Zl,ξ
√2π σ2
2Θl
exp
−(y − ξ)2
2 σ2
2Θl
− h 2
σ2V (y)
Zl,ξ =
∫1√
2π σ2
2Θl
exp
−(y − ξ)2
2 σ2
2Θl
− h 2
σ2V (y)
dy,
(2.23)
e ξ de satisfazer a condicao de compatibilidade:
ξ = m(ξ) := Σρl
∫yuel ,ξ(y)dy. (2.24)
Analogamente temos que se U(y) = y3 − y, ξ = 0 e uma solucao trivial da equacao
(2.24), e pode ser mostrado ainda atraves de uma extensao do caso homegeneo [9] que
existem duas solucoes nao triviais uel ,ξ e uel ,−ξ se e somente se ddξm(0) > 1 e como no
caso homogeneo, podemos determinar uma aproximacao para condicao de equilıbrio
para pequeno valores de h.
Proposicao 2.4.2 A condicao de compatibilidade (2.24) possui solucoes nao nulas se e
somente se σ < σc e para pequeno valores de h, σc posssui a seguinte expansao
σc =
√√√√ K∑l=1
ρlΘl
/
K∑l=1
3ρl2Θ2
l
+O(h). (2.25)
Nesse caso as solucoes nao nulas ±ξ podem ser calculadas aproximadamente para
37
pequenos valores de h e sao dadas por:
±ξ = ±
√√√√ K∑l=1
ρlΘl
(1− 3
3σ2
2Θl
)/
K∑l=1
ρlΘl
+O(h). (2.26)
2.5 Modelo de Grupos
Nesta secao vamos analisar um caso especial muito interessante o qual denominamos
por modelo de grupos. Neste caso o processo e dividido em dois ou mais grupos onde
cada agente ira pertencer a um desses grupos. As interacoes ocorrem de modo que, cada
agente interage com o grupo ao qual pertence com taxa θ e com os demais grupos com
a taxa θ tal que, θ > θ.
Antes de detalhar este modelo vamos citar as principais caracterısticas que tornam
seu estudo relevante.
Pode-se ter interesse em estudar um sistema com as seguintes caracterısticas:
• O sistema e formado por dois ou mais grupos com tendencias opostas, isto e, cada
grupo possui um comportamento diferente dos demais.
• O grau de interacao de cada agente com seu propio grupo e maior do que com os
demais grupos.
portanto, propor um modelo que seja sensıvel a essas informacoes proporciona uma
modelagem mais apurada e eficiente.
2.5.1 Analise do Modelo de Grupos
A analise deste modelo sera feita a seguir para um caso particular onde separamos o
sistema em dois grupos, ou seja, o sistema e dividido em dois grupos onde metade das
componentes se encontra no grupo 1 e a outra metade no grupo 2.
38
Um modelo que possui as caracterısticas desejadas pode ser descrito matematicamente
pelo sistema de equacoes diferenciais estocasticas de Ito (2.27) caso xj(t) pertenca ao
grupo 1 ou por (2.28) caso contrario:
dxj(t) = −hU(xj(t))dt+ θ(x1(t)− xj(t))dt+ θ(x2(t)− xj(t))dt+ σdBj(t) (2.27)
dxj(t) = −hU(xj(t))dt+ θ(x2(t)− xj(t))dt+ θ(x1(t)− xj(t))dt+ σdBj(t),(2.28)
para j ∈ x1, media do grupo 1 e para j ∈ x2, media do grupo 2.
A seguir vamos propor as solucoes esperadas de (2.27) e (2.28), que pode ser visto
como uma extensao dos Teoremas 2.3.1 e 2.4.1 para o modelo de grupos. Estamos
interessados nas solucoes nao triviais desse sistema e como nos casos anteriores estudamos
o processo a valores no espaco das medidas.
Assuma que a forca seja dada por U(y) = y3 − y e que (X(1)N (0), X
(2)N (0)) convirja
fracamente para as medidas de probabilidade ν1, ν2. Neste modelo, separamos as
componentes em dois conjuntos disjuntos, de modo que metade dos componentes pertenca
ao grupo 1 e a outra metade pertenca ao grupo 2, onde as interacoes sao dadas como
anteriormente. No limite quando N → ∞ os processos X(1)N e X
(2)N , que representam a
medida empırica do grupo 1 e 2 respectivamente e tomam valores em M1(R) convergem
fracamente para um sistema determinıstico com densidades u1(t, y), u2(t, y) ∈ C([0, T ],
M1(R)),
∂
∂tu1 = h
∂
∂y[U(y)u1]− θ ∂
∂y
[∫ ∞−∞
yu1(t, y)dy − y]u1
− θ ∂
∂y
[∫ ∞−∞
yu2(t, y)dy − y]u1
+
1
2σ2 ∂
2
∂y2u1,
∂
∂tu2 = h
∂
∂y[U(y)u2]− θ ∂
∂y
[∫ ∞−∞
yu2(t, y)dy − y]u2
− θ ∂
∂y
[∫ ∞−∞
yu1(t, y)dy − y]u2
+
1
2σ2 ∂
2
∂y2u2,
39
onde ν1 e ν2 sao as condicoes iniciais.
A relacao entre os parametros, a existencia de uma relacao entre sigma crıtico σc em
funcao de θ e θ e as solucoes aproximadas ainda estao em desenvolvimento. Observe
ainda que podemos ampliar essa versao do modelo de grupos separando os agentes em
mais de dois grupos, a extensao e a analise deste caso ainda estao em desenvolvimento.
40
Capıtulo 3
Grandes Desvios e Simulacoes
3.1 Grandes Desvios
No capıtulo anterior foi mostrado que para valores de N grande a medida empırica
XN(t, dy) converge em probabilidade para a solucao da equacao de Fokker - Planck (2.9)
e neste caso a media empırica x(t) permanece em torno do momento de primeira ordem∫∞−∞ yu(t, y)dy. Observe que se as condicoes de existencia dos dois estados de equilıbrio
for satisfeita, x(t) permanecera na regiao +ξ em torno de +1 ou −ξ em torno de
−1 por determinado intervalo de tempo para valores pequenos de h.
Uma transicao sistemica e um evento no qual x(t) e deslocado da regiao +ξ para
a regiao −ξ, ou seja, a transicao de um grande numero de agentes de uma regiao para
outra em um intervalo de tempo finito. Nosso interesse e calcular a probabilidade de
transicao para valores de N grande.
Dado um horizonte de tempo finito [0,T], os parametros (h, σ, θ) e as devidas condicoes
de existencia para o equilıbrio bi-estavel. Queremos calcular uma aproximacao da
probabilidade de transicao da media entre uma regiao estavel e outra
P (x(0) ∈ −ξ, x(T ) ∈ +ξ) (3.1)
como funcao dos parametros (h, θ, σ) para N grande.
41
3.2 Grandes Desvios via Campo Medio
Nesta secao vamos calcular a probabilidade de transicao assintotica usando a teoria
de grandes desvios desenvolvida no artigo de Dawson e Gartner [5]. Porem, antes de
estabelecer a teoria de grandes desvios iremos rever algumas notacoes e terminologias
definidas em [5].
• M1(R) e o espaco das medidas de probabilidade em R munido da metrica de
Prohorov ρ, associada a convergencia fraca.
• C([0, T ],M1(R)) e o espaco das funcoes contınuas f : [0, T ]→M1(R) com a metrica
sup0≤t≤T ρ(φ1(t), φ2(t)).
• MϕR(R) = µ ∈ M1(R),
∫ϕ(x)µ(dx) ≤ R, onde ϕ ∈ C2(R) e uma funcao nao-
negativa com limx→∞ ϕ(x) =∞. Neste artigo [5] foi mostrado que se U(x) = x3−x,
a funcao ϕ adequada e dada por ϕ(x) = 1 + x2 + γx4, onde 0 ≤ γ ≤ h/2.
• M∞(R) = ∪R>0MϕR(R) = µ ∈ M1(R),
∫ϕ(x)µ(dx) < ∞ munido com a
topologia indutiva: µn → µ em M∞(R) se e somente se µn → µ em M1(R) e
supn∫ϕ(x)µn(dx) <∞.
• C([0, T ],M∞(R)) e o espaco das funcoes contınuas f : [0, T ] → M∞(R) munido
com a topologia: φn(.) → φ(.) em C([0, T ],M∞(R)) se e somente se φn(.) → φ(.)
em C([0, T ],M1(R)) e o sup0≤t≤T supn∫ϕ(x)φn(t, dx) <∞.
• Dado ν ∈ M∞(R) e seja εν = φ ∈ C([0, T ],M∞(R)) : φ(0) = ν, munido com a
topologia relativa.
Para simplificar a notacao, reescrevemos (2.1) como ut = L∗uu+ hM∗u, onde
L∗ψφ =1
2σ2φxx + θ
∂
∂x
[x−
∫xψ(t, x)dx
]φ
, M∗φ =
∂
∂x[U(x)φ].
Teorema 3.2.1 (Dawson e Gartner, 1987) Dado um horizonte de tempo finito [0,T],
ν ∈M∞(R) e A ⊆ εν, se XN(0) = 1N
∑Nj=1 δxj(0) → ν em M∞(R) quando N →∞, entao
42
a lei de XN(t) = 1N
∑Nj=1 δxj(t) satisfaz o princıpio dos grandes desvios com uma funcao
taxa Ih isto e:
− infφ∈Ao
Ih(φ) ≤ lim infN→∞
1
NlogP (XN ∈ A) (3.2)
≤ lim supN→∞
1
NlogP (XN ∈ A) ≤ − inf
φ∈AIh(φ),
onde Ao e A representam respectivamente o interior e o fecho de A, e
Ih(φ) =1
2σ2
∫ T
0
supf :〈φ,f2x〉6=0
Jh(φ, f)dt,
Jh(φ, f) = 〈φt − L∗φ− hM∗φ, f〉2/〈φ, f 2x〉, 〈φ, f〉 =
∫ +∞
−∞f(x)φ(dx),
se φ(t) e absolutamente contınua ∀ t ∈ [0, T ] e Ih(φ) =∞ caso contrario.
Antes de aplicarmos o Teorema 3.1.2, considere ν = ue−ξ em (2.13) e o conjunto
definido a seguir
A = φ ∈ εν : φ(T ) = ueξ.
Observe que Ao e um conjunto vazio, e o Teorema 3.1.2 nos proporciona uma cota inferior
trivial para a probabilidade em questao. Portanto, vamos considerar o conjunto Aδ
Aδ = φ ∈ εν : ρ(φ(T ), ueε) ≤ δ.
O Teorema 3.2.1 implica que
− infφ∈Aoδ
Ih(φ) ≤ lim infN→∞
1
NlogP (XN ∈ Aδ) (3.3)
≤ lim supN→∞
1
NlogP (XN ∈ Aδ) ≤ − inf
φ∈AδIh(φ).
43
Alem disso, vamos mostrar que infφ∈Aδ pode ser limitado por baixo pelo infφ∈A Ih(φ)
quando δ → 0.
Lema 3.1 Por definicao infφ∈Aδ Ih(φ) e crescente e limitado por cima pelo infφ∈A Ih(φ).
E alem disso,
limδ→0
infφ∈Aδ
Ih(φ) ≥ infφ∈A
Ih(φ). (3.4)
Demonstracao 7 Vamos mostrar para um caso particular porem suficiente que e o caso
em que δ = 1/n. Para cada n, seja φn ∈ A1/n, tal que infφ∈A1/nIh(φ) ≤ Ih(φn) <
infφ∈A1/nIh(φ) + 1/n; onde Ih(φn) e limitada por cima pelo infφ∈A Ih(φ) + 1 < ∞.
Seja Ih uma funcao taxa apropriada (satisfazendo o Teorema 3.2.1), e pela proposicao
B.13 de [18], o criterio de compacidade equivale para a sequencia de compactos em
C([0, T ],M∞(R)), ou seja, φn possui uma subsequencia convergente φnk cujo limite
φ∗ pertence ao conjunto A. Como Ih e uma funcao semicontınua e decrescente, entao
limn
infφ∈A1/n
Ih(φ) = limkIh(φnk) = lim inf
kIh(φnk) ≥ Ih(φ
∗) ≥ infφ∈A
Ih(φ). (3.5)
Combinando o lema 3.1 e o fato que infφ∈Aoδ Ih(φ) ≤ infφ∈A Ih(φ) temos que, para
ε > 0 qualquer, e δ > 0 suficientemente pequeno
− infφ∈A
Ih(φ) ≤ lim infN→∞
1
NlogP (XN ∈ Aδ) (3.6)
≤ lim supN→∞
1
NlogP (XN ∈ Aδ) ≤ − inf
φ∈AIh(φ) + ε.
Portanto, para N grande e δ suficientemente pequeno:
P (XN ∈ Aδ) ≈ exp
(−N inf
φ∈AIh(φ)
). (3.7)
Esse resultado nos mostra que as trajetorias da media empırica em sistemas com um
grande numero de componentes possui um comportamento metaestavel, tal resultado
pode ser verificado nas simulacoes numericas seguir.
44
3.3 Simulacoes Numericas
Nesta secao vamos simular cada um dos modelos apresentados nesta dissertacao e
interpretar o seu comportamento de acordo com a escolha dos parametros. As simulacoes
apresentadas a seguir foram feitas utilizando o esquema de Euler onde discretizamos
as equacoes (2.1), (2.2) e (2.28) em uma grade de tempo uniforme, de modo que, Xnj
representa a simulacao de Xj no intervalo de tempo n∆t ∀j = 1, . . . , n. Por exemplo, na
equacao (2.1) temos a seguinte discretizacao:
Xn+1j = Xn
j − hU(Xnj )∆t+ σ∆Bn+1
j + θ(1
N
N∑k=1
Xnk −Xn
j )∆t. (3.8)
E importante ressaltar que tanto as simulacoes do modelo de Ornstein-Uhlenbeck
apresentadas no capıtulo 1 quanto as simulacoes do modelo simplificado apresentadas a
seguir descrevem a trajetoria temporal individual de cada componente. No entanto, as
simulacoes apresentadas para o modelo principal e para o modelo de grupos descrevem
o comportamento da media empırica do sistema.
3.3.1 Modelo Simplificado
Observe a seguir o efeito ao aumentar os valores de N e θ. Assim como simulado no
capitulo 1 o sistema fica mais concentrado em torno do seu valor inicial −1.
45
Figura 3.1: σ = 1, θ = 1, N = 10, h = 0.1.
Figura 3.2: σ = 1, θ = 6, N = 10, h = 0.1.
46
Figura 3.3: σ = 1, θ = 1, N = 50, h = 0.1.
Figura 3.4: σ = 1, θ = 6, N = 50, h = 0.1.
47
Figura 3.5: σ = 1, θ = 6, N = 100, h = 0.1.
3.3.2 Modelo Principal
A seguir mostramos o comportamento do modelo principal quando aumentamos o
valor de θ. Note que, a medida que o numero de interacoes aumenta se torna mais facil
de visualizar as duas regioes estaveis do sistema.
48
Figura 3.6: σ = 1, θ = 1.5, N = 100, h = 0.1.
Figura 3.7: σ = 1, θ = 6, N = 100, h = 0.1.
49
Figura 3.8: σ = 1, θ = 1.5, N = 100, h = 0.1.
Figura 3.9: σ = 1, θ = 6, N = 100, h = 0.1.
3.3.3 Modelo de Grupos
Assim como no modelo principal vamos simular o comportamento da media empırica
do sistema e observar seu comportamento quando se aumenta os valores de θ1 e θ2.
As simulacoes 3.10 e 3.11 mostram o comportamento da media epırica de todas as
componentes do sistema enquanto 3.12 representa o comportamento das componentes
que pertencem ao grupo 1 e ao grupo 2 separadamente. A figura 3.12 deixa claro a
diferenca entre o comportamento do gupo 1 e 2.
50
Figura 3.10: σ = 1, θ = 6, θ = 1.5, N = 100, h = 0.1.
Figura 3.11: σ = 1, θ = 6, θ = 0.5, N = 100, h = 0.1.
51
Figura 3.12: σ = 1, θ = 6, θ = 1.5, N = 100, h = 0.1.
Figura 3.13: σ = 1, θ = 6, θ = 0.5N = 100, h = 0.1.
52
Apendice A:
3.4 Codigo da Simulacao em Matlab
[language= MATLAB]
functionr = OUMF (sigma, theta,mu)
N=100; X= -ones(N,1); dt=.02; h=.1; sigma=1; theta=6; n=1; passos=100; while
n¡passos for i=1:N W(i,1)=sqrt(dt)*randn(); end
X(:,n+1)=X(:,n) + sigma*W - theta*(X(:,n) - mu)*dt; n=n+1; end
k=1:passos; t=k*(dt);
plot(t,X) r=0;
[language= MATLAB]functionr = OUMF (sigma, theta,mu)N = 100;
X = −ones(N, 1);dt = .02;h = .1;sigma = 1;theta = 6;n = 1;passos = 100;while n < passosfor i = 1 : NW (i, 1) = sqrt(dt) ∗ randn();end
X(:, n+ 1) = X(:, n) + sigma ∗W − theta ∗ (X(:, n)−mu) ∗ dt;
53
n = n+ 1;end
k = 1 : passos;t = k ∗ (dt);
plot(t,X)r = 0;
end
54
Referencias Bibliograficas
[1] BILLINGSLEY, Patrick.Convergence of probability measures. 1999.
[2] Chung, Kai Lai. A course in probability theory. Academic press, 2001.
[3] D. A. Dawson, Critical dynamics and fluctuations for a mean-field model of
cooperative behavior, J. Statist. Phys., 31 (1983), pp. 29-85.
[4] Durrett, Rick. Probability: theory and examples. Cambridge university press, 2010.
[5] D. A. Dawson and J. Gartner, Large deviations from the McKean-Vlasov limit for
weakly interacting diffusions, Stochastics, 20 (1987), pp. 247-308.
[6] Ethier, Stewart N.; Kurtz, Thomas G. Markov processes: characterization and
convergence. John Wiley & Sons, 2009.
[7] Fouque, J. P., & Sun, L. H. (2012). Systemic risk illustrated. Handbook on Systemic
Risk, Cambridge University Press (forthcoming).
[8] Feller, William. An Introduction to Probability Theory and its Applications Vol. I.
(1968).
[9] Garnier, J., Papanicolaou, G., Yang, T. W. (2013). Large deviations for a mean field
model of systemic risk. SIAM Journal on Financial Mathematics, 4(1), 151− 184.
[10] Ikeda, N., S. Watanabe. Stochastic differential equations and diffusion processes.
Elsevier, 1989.
[11] James, B.R.: Probabilidade: Um Curso em Nıvel Intermediario. IMPA, 3a edicao,
1994.
55
[12] J. Gartner, On the McKean-Vlasov limit for interacting diffusions, Math. Nachr.,
137 (1988), pp. 197?248.
[13] Karatzas, Ioannis. Brownian motion and stochastic calculus. Vol. 113. springer, 1991.
[14] L. Alili, P. Patie, and J.L. Pedersen. Representations of the first hitting time density
of an ornstein-uhlenbeck process. Stochastic Models, 21(4) : 967?980, 2005.
[15] Lawler, G.: Introduction to Stochastic Processes. London: Chapman & Hall, 1996.
[16] Liggett, T.: Interacting Particle Systems. New York: Springer-Verlag, 1985.
[17] Nelson, Edward, et al. Dynamical theories of Brownian motion. Vol. 17. Princeton
university press, 1967.
[18] Olivieri, Enzo; Vares, Maria Eulalia. Large deviations and metastability. Cambridge
University Press, 2005.
[19] Rudin, Walter. Principles of mathematical analysis. Vol. 3. New York: McGraw-Hill,
1964.
[20] Shreve, Steven E. Stochastic calculus for finance II: Continuous-time models. Vol.
11. Springer, 2004.
[21] Varadhan, SR Srinivasa, and SR Srinivasa Varadhan. Large deviations and
applications. Vol. 46. Philadelphia: Society for industrial and applied mathematics,
1984.
56