Instituto de Matem´
atica Pura e Aplicada
Gabriel Gomes Figueiredo
Grafos Aleat´
orios de Erd¨
os-R´
enyi
Rio de Janeiro
Novembro de 2015
Grafos Aleat´orios de Erd¨os-R´enyi
Resumo
Nesse trabalho vamos estudar as componentes conexas dos Grafos Aleat´orios de Erd¨ os-R´enyi e tambomo o processo de forma¸c˜ao dessas componentes podem ser descritas pelos processos de ramifica¸c˜ao.
O que vamos estudar mais afundo ´e que quando a expectativa do grau ´e muito menor que 1, as componentes s˜ao pequenas e a maior componente nesse caso ´e da ordem de log(n). Agora quando a expectativa do grau ´e maior do que 1, existe uma componente conexa gigante que cont´em uma propor¸c˜ao positiva de todos os v´ertices.
Processos de Ramifica¸c˜ao
Para dar in´ıcio ao estudo dos Grafos Aleat´orios de Erd¨os-R´enyi vamos primeiro falar um pouco sobre os Processos de Ramifica¸c˜ao e tamb´em sobre os Processos de Ramifica¸c˜ao com distribui¸c˜ao por Poisson.Vamos fazer isso porque, como j´a dito, podemos descrever as componentes conexas dos Grafos Aleat´orios de Erd¨os-R´enyi a partir de tais processos. Os processos de ramifica¸c˜ao s˜ao usados para descrever as componentes conexas de v´arios grafos aleat´orios. Come¸camos estudando as transi¸c˜oes de sobrevivˆencia e extin¸c˜ao e escrevendo momentos do tamanho total de uma fama .
1. Sobrevivˆencia e Extin¸c˜ao.
Um processo de ramifica¸c˜ao ´e um simples modelo de possibilidades para uma po-pula¸c˜ao em evolu¸c˜ao no tempo. Suponha que cada organismo independente tenha dado nascimento a um n´umero de crian¸cas com a mesma distribui¸c˜ao e de forma independente entre os diferentes indiv´ıduos. Escrevemos que a distribui¸c˜ao (pi)i≥0,
onde
pi = P(indiv´ıduos que tem i crian¸cas)
Escrevemos tamb´em que Zn ´e o n´umero de indiv´ıduos na n-´esima gera¸c˜ao, onde,
por conven¸c˜ao, Z0 = 1. Ent˜ao Zn satisfaz a seguinte rela¸c˜ao de recurs˜ao,
Zn = Zn−1
P
i=1
Xn,i,
onde (Xn,i)n,i≥1 ´e um conjunto de vari´aveis aleat´orias independentes e
identicamen-tes distribuidas. Vamos escrever frequentemente usar X para a distribui¸c˜ao de filhos, de modo que (Xn,i)n,i≥1 ´e um conjunto de vari´aveis aleat´orias independentes
Um dos maiores resultados dos processos de ramifica¸c˜ao ´e que quando E[X] ≤ 1, a popula¸c˜ao morre com probabilidade um(a menos que X1,1 = 1 com probabilidade
1), enquanto E[X] > 1, existe uma probabilidade n˜ao nula de que a popula¸c˜ao n˜ao se tornar´a extinta. A fim de demonstrar o resultado, escrevemos que a probabilidade de extin¸a˜ao
η = P(∃n : Zn = 0).
Teorema 1.1(Sobrevivˆencia vs. Extin¸c˜ao para processos de ramifica¸c˜ao)
Para um processo de ramifica¸c˜ao com vari´avel de filhos X independetes e identica-mentes distribuidas, η = 1 quando E[X] < 1, enquanto η < 1 quando E[X] > 1. Al´em disso, η = 1 quando E[X] = 1 e P(X = 1) < 1.Al´em do mais, com s 7→ GX(s)
sendo a fun¸c˜ao geradora de probabilidade da distribui¸c˜ao de filhos X, isto ´e,
GX(s) = E[sX],
a probabilidade de extin¸c˜ao η ´e a menor solu¸c˜ao em [0, 1]de
η = GX(η).
Chamamos os processos de ramifica¸c˜ao de subcr´ıticos quando E[X] > 1,cr´ıtico quando E[X] = 1 e P(X = 1) < 1, e supercr´ıticos quando E[X] > 1. O caso quando P(X = 1) = 1 ´e desinteresante e ´e omitido na defini¸c˜ao.
Em muitos casos,estamos interessados na probabilidade de sobrevivˆencia represen-tada por ζ = 1 − η,a qual ´e a probabilidade que os processos de ramifica¸c˜ao sempre sobrevivem, ou seja, ζ = P(Zn > 0 para todo n ≤ 0)
Continuando o estudo sobre o total de filhos T de um processos de ramifica¸c˜ao definimos T = ∞ P n=0 Zn
Representamos GT(s) = E[sT] a fun¸c˜ao geradora de probabilidade de T , ou seja,
Teorema 1.2(Total de filhos da fun¸c˜ao de geradora de probabilidade). Para um processo de ramifica¸c˜ao com vari´avel X independente e identicamente distribuida de filhos tendo fun¸c˜ao geradora de probabilidade GX(s) = E[sX], a fun¸c˜ao geradora
de probabilidade do total de filhos T satisfaz a rela¸c˜ao que, para todo s ∈ [0, 1],
Esse teorema requer alguns cuidados quando os processos de ramifica¸c˜ao tem pro-babilidade de sobrevivˆencia positiva. Observamos que quando os processos de rami-fica¸c˜ao sobrevivem com probabilidade positiva, ou seja, η < 1 com η a menor solu¸c˜ao para η = GX(η), ent˜ao GT(s) = E[sT1T <∞] somente recebe uma contribui¸c˜ao vinda
de T < ∞ para |s| < 1.Mais, Gr(1 ≡ lims%1Gr(s) satisfaz Gr(1) = GX(Gr(1)) ou
Gr(1) = η. Uma vez que, para cada s ∈ [0, 1),
Gr(s) = E[sT1T <∞] ≤ P(T <),
assim obtemos que Gr(1) = η.
2. Momentos em Fam´ılia.
Nessa se¸c˜ao, escrevemos a m´edia do tamanho de um processo de ramifica¸c˜ao e usamos isso para escrever a m´edia do tamanho de uma fam´ılia ou da m´edia do total de filhos. O principal resultado ´e o seguinte teorema:
Teorema 1.3(Momentos da gera¸c˜ao de fam´ılias) Para todo n ≥ 0, e µ = E[Z1] =
E[X] a expectativa de filhos de um certo indiv´ıduo,
E[Zn] = µn
Teorema 1.4(Desigualdade de Markov para Processos de Ramifica Subcr´ıticos). Fi-xemos n ≥ 0. Seja µ = E[Z1] = E[X] a expectativa de filhos de um indiv´ıduo, e
assumimos que µ < 1. Ent˜ao
P(Zn > 0) ≤ µn
Esse teorema implica que no regime subcr´ıtico, ou seja, quando a expectativa de filhos µ < 1, a probabilidade que a popula¸c˜ao sobrevive no tempo n ´e exponencial-mente menor que n. Em particular,a expectativa do total de filhos ´e finito.
Teorema 1.5(Expectativa do total de filhos) Para um processo de ramifica¸c˜ao com filhos X i.i.d tendo m´edia de filhos µ < 1,
Processos Aleat´orios de Poisson
Representamos a distribui¸c˜ao dos Processos Aleat´orios de Poisson por Pλ∗e escrevemos tamb´em que T∗ ´e o total de filhos de um Processo Aleat´orio de Poisson e X∗ como sendo uma vari´avel aleat´oria de Poisson.
Para uma vari´avel aleat´oria de Poisson X∗ com m´edia λ, a probabilidade de gerar fun¸c˜oes para a distribui¸c˜ao de filhos ´e igual a
G∗(s) = E∗λ[sX∗] = sie−λ λi
i! = e λ(s−1)
Portanto, a rela¸c˜ao para a probabilidade de extin¸c˜ao η (η = Gx(η) onde Gx(s) = E[sX]
torna-se
ηλ = eλ(ηλ−1), (∗)
Onde adicionamos λ para fazer a dependˆencia em λ expl´ıcita.
Para λ ≤ 1, a equa¸c˜ao (∗) tem uma solu¸c˜ao ηλ = 1 que corresponde a quase certeza
de extin¸c˜ao. Para λ > 1 existem duas solou¸c˜oes dos quais o menor ηλ ∈ (0, 1) satisfaz.
Condicionalmente na extin¸c˜ao, um Processo de Ramifica¸c˜ao de Poisson tem lei (p0k)k≥0
dado por,
p0k= ηk−1λ pk = e−ληλ(ληλ)
k
k! ,
onde usamos (∗). Note que essa distribui¸c˜ao de filhos ´e novamente Poisson com m´edia, µλ = ληλ
E, novamente por (∗),
µλe−µλ = ληλe−µλ = λe−λ
Chamamos µ < 1 < λ um par conjugado quando, µe−µ= λe−λ (∗)
Uma vez que x 7→ xe−x aumenta pela primeira vez e em seguida decresce, com um m´aximo de e−1 em x = 1, a equa¸c˜ao xe−x = λe−λ tem precisamente duas solu¸c˜oes, uma solu¸c˜ao µ < 1 e a outra solu¸c˜ao λ > 1. Portanto, para um Distribui¸c˜ao de Filhos de Poisson, o Princ´ıpio da Dualidade ´e reformulado da seguinte maneira:
Teorema 2.1:(Princ´ıpio da Dualidade de Poisson). Seja µ < 1 < λ conjugados. O Processo de Ramifica¸c˜ao de Poisson com m´edia λ, condicionalmente na extin¸c˜ao, tem a mesma distribui¸c˜ao do que um Processo de Ramifica¸c˜ao de Poisson com m´edia µ
Agora vamos descrever uma lei para o total de filhos de um Processo de Ramifica¸c˜ao de Poisson:
Teorema 2.2:(Total de Filhos de um Processo de Ramifica¸c˜ao de Poisson). Para um processo de ramifica¸c˜ao com vari´avel X∗ i.i.d, onde X∗ tem distribui¸c˜ao de Poisson com m´edia λ,
P∗λ(T
∗ = n) = λn
n−1n!e−λn, (n ≥ 1)
Vamos usar o Teorema de Cayley nos n´umeros de ´arvores rotuladas. Definimos ´arvores rotuladas em [n] como sendo uma ´arvore de tamanho n onde todos os v´ertices tem um r´otulo em [n] e cada r´otulo ocorre precisamente uma vez. Uma aresta de uma ´arvore ´e rotulada ´e um par {v1, v2}, onde v1 e v2 s˜ao r´otulos de dois v´ertices conexos na ´arvore.
O conjunto de arestas de uma ´arvore de tamanho n ´e a cole¸c˜ao de n − 1 arestas. Duas ´
arvores rotuladas s˜ao iguais se e somente se elas possuem o mesmo conjunto de arestas. O Teorema de Cayley diz o seguinte sobre a defini¸c˜ao acima,
Teorema 2.3:(Teorema de Cayley) O n´umero de ´arvores rotuladas de tamanho n ´e igual a nn−2. E equivalente dizer que, o n´´ umero de arvores abrangidas em um grafo
completo de tamanho n ´e nn−2
Teorema 2.4:(Fun¸c˜ao Assint´otica para o total de filhos de um Processo de Rami-fica¸c˜ao de Poisson) Para um processo de ramifica¸c˜ao com vari´avel X∗ i.i.d de filhos, onde X∗ tem distribui¸c˜ao de Poisson com m´edia λ, assim que n → ∞,
P∗λ(T ∗ = n) = 1 λ √ 2πn3e −Iλn Onde, Iλ = λ − 1 − log(λ) Em particular, quando λ = 1, P∗1(T ∗ = n) = (2π)−1/2n−3/2[1 + O(n−1)]
Corol´ario 2.5:(Diferenciabilidade da probabilidade de sobrevivˆencia.) Deixe que ηλ
represente a probabilidade de extin¸c˜ao de um processo aleat´orio com uma distribui¸c˜ao de filhos por Poisson com m´edia λ, e ςλ = 1 − ηλ ´e a probabilidade de sobrevivˆencia. Ent˜ao,
para todo λ > 1,
d dλςλ =
ηλ(λ−µλ)
λ(1−µλ) < ∞,
onde µλ ´e o conjulgado de λ definido em (∗). Quando λ ↓ 1,
Defini¸c˜oes:
Agora que falamos sobre os Processos de Ramifica¸c˜ao e tamb´em sobre os Processos de Ramifica¸c˜ao com distribui¸c˜ao por Poisson podemos dar in´ıcio aos Grafos Aleat´orios de Erd¨os-R´enyi.
Para trabalhar com os Grafos Aleat´orios de Erd¨os-R´enyi vamos fazer o uso do Grafo G(n, p) onde,
n = representa o n´umero de v´ertices; p = a probabilidade da aresta. Isto ´e, o conjunto dos v´ertices ´e representado como,
[n] = {1, 2, · · · , n}
E vale lembrar que, p = a probabilidade da aresta, pode ser reescrita da seguinte forma,
p = λn, onde λ ´e uma vari´avel.
E sejam, u e v ∈ [n] representamos a aresta designada por u e v por uv
e tamb´em,
uv : {1 ≤ u ≤ v ≤ n}
E vale lembrar que cada aresta ´e igualmente e identicamente distribuida. Dizemos tamb´em que uma aresta ´e ocupada se
P[Uuv = 1] = p
E se a aresta n˜ao for ocupada,
P[Uuv = 0] = 1 − p
´
E importante ressaltar que os Grafos Aleat´orios de Erd¨os-R´enyi acontecem quando as arestas est˜ao ocupadas, ou seja, P [Uuv = 1] = p.
Representamos um caminho entre dois v´ertices s, t ∈ [n] como, s ↔ t
Por conven¸c˜ao,
s ↔ s
Para v ∈ [n], escrevemos que a Componente Conexa contendo v ou um ramo de v por, C(v) = {x ∈ [n] : x ↔ n}
E o tamanho de C(v) ´e |C(v)|, ou seja,|C(v)| =o n´umero de v´ertices conectados a v.E a Maior Componente Conexa, Cmax, ´e igual a qualquer ramo de C(v) tal que |C(v)| ´e
m´aximo. Representamos tamb´em,
|Cmax| = maxv∈[n]|C(v)|
Note que a defini¸c˜ao acima identifica |Cmax| como ´unico, mas n˜ao podemos identificar
Cmax, como ´unico. Mas podemos fazer com que Cmax seja ´unico, basta fazer Cmax ser o
ramo de tamanho m´aximo contendo um v´ertice com tamanho pequeno.
Nas pr´oximas se¸c˜oes vamos estudar o comportamento da Componente Conexa, C(v), contendo um v´ertice v no grafo G(n, p). Para dar in´ıcio a esse estudo introduziremos um algoritimo que ´e feito em seis etapas e temos como resultado o tamanho da componente conexa contendo v.
Algoritimo para descobrir o tamanho da C(v) Etapa 1: Existem trˆes estados para os v´ertices:
1. Inativos; 2. Neutros; 3. Ativos.
O estado do v´ertice muda no decorrer da explora¸c˜ao da Componente Conexa de v; Etapa 2: No tempo t = 0, somente v est´a ativo e todos os outros v´ertices est˜ao neutros. E nosso conjunto S0 = 1;
Etapa 3: A cada tempo t ≥ 1, escolhemos um v´ertice ativo w de forma arbitr´aria e exploramos todas as outras arestas ww0, onde w0 percorre todos os v´ertices neutros. Se ww0 ∈ E(G) ent˜ao w0 ´e ativo, caso contr´ario continua neutro;
Etapa 4: Depois pesquisamos todos os conjuntos de v´ertices neutros, nosso conjunto w est´a inativo e deixamos St ser igual ao n´umero de v´ertices ativos no tempo t;
Etapa 5: Quando n˜ao existem mais v´ertices ativos, ou seja, St= 0, o processo termina
e C(v) ´e o conjunto de todos os v´ertices inativos, isto ´e, C(v) = t; Etapa 6: Seja St o n´umero de v´ertices ativos no tempo t,ent˜ao,
S0 = 1
St = St−1+ Xt− 1
Onde X1, X2, · · · , Xts˜ao vari´aveis aleat´orias i.i.d, que representam o n´umero de v´ertices
que tornam-se ativos devido a explora¸c˜ao do t-´esimo v´ertice ativo wt, e depois dessas
ex-plora¸c˜oes, wt torna-se inativo.
Como um resultado, a distribui¸c˜ao de Xt depende do n´umero de v´ertices ativos no
momento t − 1, ou seja, em St−1, e n˜ao em qualquer outro caminho que os v´ertices s˜ao
inativos, neutros ou ativos.
Mais precisamente, cada v´ertice w0 no tempo t − 1 em um grafo aleat´orio tem proba-bilidade p para torna-se ativo no tempo t. A aresta ww0 ´e examinada exatamente uma vez, de modo que a probabilidade condicional para ww0 ∈ ERn(p) ser´a sempre igual a
p. Depois de t − 1 explora¸c˜oes de v´ertices ativos, temos t − 1 v´ertices ativos. Isso deixa n − (t − 1) − St−1 v´ertices neutros.
Ent˜ao, como agora sabemos o que ´e a maior componente conexa e temos um processo para descobrir o tamanho dela vamos dar in´ıcio ao estudo da varia¸c˜ao de λ, isto omo j´adito p = λn e o que vamos estudar ´e o que acontece com a maior componente conexa quando,
1. λ < 1; 2. λ = 1; 3. λ > 1.
Regime Subcr´ıtico
Nessa se¸c˜ao, vamos trabalhar com λ = p·n < 1. Para dar in´ıcio a esse processo devemos introduzir alguns conceitos que auxiliar˜ao nas demosntra¸c˜oes do Regime Subcr´ıtico.
• Liga¸c˜ao Informal com os Processos de Ramifica¸c˜ao de Poisson.
O que vamos fazer ´e uma rela¸c˜ao entre os tamanhos dos ramos no Grafo de ERn(λ/n)
e os de Processos de Ramifica¸c˜ao de Poisson. N˜ao vamos usar esse t´opico no restante do trabalho mas vamos usar a filosofia das demonstra¸c˜oes.
Seja S0∗, · · · , X1∗, · · · , H∗ a hist´oria de um Processo de Ramifica¸c˜ao com distribui¸c˜ao de filhos λ e seja S0, · · · , X1, · · · , H a hist´oria de um grafo aleat´orio de ERn(λ/n)
onde,
(
S0 = 1
St= St−1+ Xt− 1
O evento H∗ = (x1, x2, · · · , xt) ´e o total de filhos T∗ de um Processo Aleat´orio de
Poisson igual a t e as vari´aveis x∗1, x∗2, · · · , x∗t s˜ao dadas por x1, · · · , xt.
T = inf(t : St= 0) = inf(t : x1+ · · · + xt= t − 1)
t = inf(t : Si = 0) = min(i : x1+ · · · + xi = i − 1)
E para a qualquer possibilidade (x1+ · · · + xt),
P = (H = (x1+ · · · + xt)) = Qi=1(pxi)
P∗λ(H = (x1+ · · · + xt)) =Qti=1P∗λ(X ∗ i = xi)
Onde (Xi∗)i≥1 ´e uma vari´avel aleat´oria de Poisson com parˆametro λ,
Pλ(H = (x1, · · · , xt)) =
Qt
i=1Pλ(Xi = xi|Xi = xi, · · · , Xi−1= xi−1)
Onde em X1 = x1, , Xi−1= xi−1, a vari´avel aleat´oria Xi ´e binomialmente distribuida
Bin(n − (i − 1) − si−1, λ/n)
[xt ∼ Bin(n − (t − 1) − St−1, p)s0 = 1, si = si−1+ xi−1]
Quando mn = n(1 + o(1)), λ e i s˜ao fixos ent˜ao podemos estender esse tratamento
quando X tem distribui¸c˜ao Bin(mn, λ/n) e ent˜ao limn→∞P(X = i) = e−λ · λ
i
i!.
limn→∞Pλ(H = (x1, · · · , xt))
= P∗λ(H
∗ = (x
1, · · · , xt))
Teorema 3.1:(Limite Superior na maior Componente Subcr´ıtica) Fixamos λ < 1. Ent˜ao para todo a > I1
λ , existe δ = δ(a, λ) > 0 tal que,
Pλ(|Cmax| ≥ a · log(n)) = O(n−δ)
Vis˜ao Global do Teorema: Esse teorema diz que |Cmax| ≤ a · log(n) com alta
probabilidade para qualquer a > 1
Iλ, onde Iλ = λ − 1 − log(λ)
Estrat´egia para demonstra¸c˜ao: • Z≥k =Pv∈[n]I|Cv|≥k
Onde, Z≥k, ´e o n´umero de v´ertices na componente conexa de tamanho pelo menos
k. E vamos identificar |Cmax| = max {k : Z≥k ≥ k} que implica (|Cmax| ≥ k) =
(Z≥k ≥ k)
• Desigualdade de Markov para Z≥k
Relembrando a Desigualdade de Markov. Seja X uma vari´avel aleat´oria n˜ao negativa com E[X] < ∞, ent˜ao
P(X > a) ≤ E[X]a
Em particular, quando X ´e um valor inteiro com E[X] ≤ m, ent˜ao
P(X = 0) ≥ 1 − m
Ent˜ao aplicando a Desigualdade de Markov em Z≥k escrevemos que,
Eλ[Z≥k] = n · Pλ(|C(1)| ≥ k)
E vamos usar o Teorema abaixo para limitar Pλ(|C(1)| ≥ kn), quando Kn= a·log(n)
para qualquer a > I1
λ.
• Teorema(Domina¸c˜ao Estoc´astica do Tamanho de um Ramo):
Pnp(|C(1)| ≥ k) ≤ Pn,p(T≥ ≥ K)
,ou seja, |C(1)| ≥ k T≥
Onde T≥´e o total de filhos de um Processo de Ramifica¸c˜ao Binomial com parˆametros n e p, e Pλ ´e a lei para ERn(λn). Portanto Z≥k = 0 quando, |Cmax| ≤ k
Teorema 3.2:(Limite Inferior na Maior Componente Subcr´ıtica) Fixamos λ < 1. Ent˜ao para todo a > I1
λ, existe δ = δ(a, λ) tal que,
Pλ(|Cmax| ≤ a · log(n)) = O(n−δ)
Vis˜ao Global do Teorema: Esse teorema diz que |Cmax| ≥ a · log(n) com alta
probabilidade para qualquer a < I1
λ, onde Iλ = λ − 1 − log(λ)
Estrat´egia para demonstra¸c˜ao: Usamos a nota¸c˜ao: χ≥k(λ) = Eλ[|C(v)| I{|C(v)|≥k}]
e tamb´em fazemos o uso da seguinte preposi¸c˜ao,
• Preposi¸c˜ao: (A estimativa de varia¸c˜ao de Z≥k em termos de χ≥k(λ)) Para todo n e
K ∈ [n]
V arλ(Z≥k) ≤ n · χ≥k(λ).
Assim, enunciados os dois principais teoremas da se¸c˜ao podemos dar in´ıcio ao Com-portamento Cr´ıtico.
O Comportamento Cr´ıtico
Nessa se¸c˜ao vamos estudar o comportamento da maior componente conexa de ERn(λn)
para p = 1n
Teorema 1:(Grande Cacho Cr´ıtico)
Pegamos λ = 1 + θn−13 , onde θ ∈ R. Existe uma constante b = b(θ) > 0 tal que,
para todo ω > 1, P1+θn−1 3 (ω −1n2 3 ≤ |Cmax| ≤ ωn 2 3) ≥ 1 − b ω
Vis˜ao Global do Teorema:
Esse Teorema mostra que a Grande Compoente Conexa obedece uma escala n˜ao trivial. Quando |Cmax| ´e logariticamente pequeno no Regime Subcr´ıtico, λ < 1, e
|Cmax| = θP(n) no Regime Supercr´ıtico, λ > 1, na valor cr´ıtico, λ = 1, vemos que
o maior cacho ´e θP(n
2
3). O resultado do Teorema 1 mostra que a vari´avel aleat´oria
|Cmax| n
−2
3 ´e ’apertada’, no sentido de que |Cmax| n −2
3 ≤ ω com alta probabilidade,
de modo que, com uma propabilidade consider´avel |Cmax| = θ(n
2 3)
Estrat´egia para Demonstra¸c˜ao:
Come¸camos estudando a extremidade da distribui¸c˜ao do |C(v)| para o caso cr´ıtico, λ = 1. Generalizamos o Teorema da Domina¸c˜ao Estoc´astica e o Teorema do Limite Inferior na Extremidade de um Cacho para λ = 1 + θn−13 que est˜ao perto do valor
cr´ıtico λ = 1. Vamos usar tamb´em as duas seguintes preposi¸c˜oes: 1. Preposi¸c~ao: (Extremidade dos Cachos Cr´ıticos)
Tome λ = 1 + θn−13 , onde θ ∈ R, e deixe r > 0. Para k ≤ rn 2
3, existe
constantes 0 < c1 < c2 < ∞ onde c1 = c1(r, θ) tal que , minr≤1c1(r, θ) > 0, e
c2 independente para r e θ, tal que, np seja suficientemente grande, c1 √ k ≤ P1+θn−13 (|C(1)| ≥ k) ≤ c2((θ ∨ 0)n −1 3 + √1 k)
Vis˜ao Global da Preposi¸c˜ao:Essa Preposi¸c˜ao implica que o tamanho da extremidade de um cacho cr´ıtico obedece assintoticamente o total de filhos de um Processo de Ramifica¸c˜ao Cr´ıtico. O resultado dessa Preposi¸c˜ao vale somente para valores de k qua n˜ao s˜ao t˜ao grandes. De fato, quando k > n temos,
2. Preposi¸c~ao: (Limite do Tamanho Cr´ıtico de um Ramo Esperado) Tome λ = 1 + θn−13 onde θ < 0. Ent˜ao, para todo n > 1,
E1+θn−13 [|C(1)|] ≤ n
1 3
|θ|
No Regime Cr´ıtico, pode-se esperar que a expectativa do tamanho de um ramo recebe uma quantidade consider´avel vinda do grande cacho. Isso sugere que, para qualquer v ∈ [n],
E1+θn−13 [|C(1)|] ∼ E1+θn−13 [|C(v)| Iv∈|Cmax|] = E1+θn−13 [|Cmax| Iv∈|Cmax|],
onde ∼ representa a mesma destribui¸c˜ao. Quando |Cmax| = θ(n2/3)
E1+θn−13 [|C(v)| Iv∈|Cmax|] ∼ n
2/3
P1+θn−13 (1 ∈ Cmax)
Al´em disso, quando |Cmax| = θ(n2/3),
P1+θn−13 (v ∈ Cmax) ∼ n
2/3
n = n
−1/3
Portanto ´e intuitivo concluir que,
E1+θn−13 [|C(1)| ∼ n1/3
Como foi exposto os principais teoremas do Comportamento Crco vamos dar seg-mento ao assunto falando agora sobre o Regime Supercr´ıtico.
Regime Supercr´ıtico
Fixamos λ < 1. Escrevemos ζλ = 1 − ηx para a probabilidade de sobrevivˆencia de
um processo aleat´orio de Poisson com m´edia λ
Teorema 1(Lei dos Grandes N´umeros para a Componente Gigante). Fixamos λ < 1. Ent˜ao para todo ν ∈ (12, 1),existe δ = δ(ν, λ) > 0 tal que,
Pλ(| |Cmax| − ηλ(n)| ≥ nnu) = O(n)−δ
Vis˜ao Global do Teorema 1:
Podemos interpretar esse Teorema da seguinte forma. Um v´ertice tem uma grande componente conexa com probabilidade ηλ. Portanto, existe ordem ηλ(n) dos v´etices
com grande componente conexa. Esse Teorema implica que quase todos os v´ertices na grande componente conexa s˜ao de fato componentes conexas, e isso chamamos de Componente Gigante.
Estrat´egia para demonstra¸c˜ao: Relembramos que Z≥k = P
v∈[n]
I{|Cv|≥k}´e o n´umero de v´ertices na componente conexa
de tamanho pelo meno k e dividimos a estrat´egia de demonstra¸c˜ao em 4 etapas. Etapa 1: Para Kn = K · log(n) e K suficientemente grande, escrevemos,
Eλ[Z≥kn] = n · Pλ(|Cv| ≥ kn)
Calculamos Pλ(|Cv| ≥ kn) usando a OBS4 e a seguinte preposi¸c˜ao,
Preposi¸c˜ao 1.1: Para Kn≥ a · log(n) onde a > I1
λ, n suficientemente grande,
Pλ(|Cv| ≥ kn) = ηλ+ O(knn)
Etapa 2: Usamos a estimativa de varia¸c˜ao em Z≥k, que implica, para todo ν ∈ (12, 1)
|Z≥kn− Eλ[Z≥kn]| ≤ n
ν
Tamb´em usamos a nota¸c˜ao,
χ<k(λ) = Eλ[|Cv| I{|Cv|<k}]
Preposi¸c˜ao 1.2:(A Segunda Estimativa de Varia¸c˜ao em Z≥k).
Para todo n e k ∈ [n],
Corol´ario 1.2.1:(Concentra¸c˜ao do N´umero de V´ertices na Grande Componente) Fixamos kn = k · log(n) e ν ∈ (12, 1). Ent˜ao para k grande e todo δ < 2ν − 1,
Pλ(|Z≥kn− n · ηλ| > n
ν) = O(n−δ)
Etapa 3: Seja J (α, λ) = Ig(α,λ) com g(α, λ) = (1−e
−λ·α)
α . Ent˜ao J (α, λ) > 0 sempre
que g(α, λ) < 1.
Preposi¸c˜ao 1.3.1:(Lei Exponencial para Ramos Supercr´ıticos menores que ηnλ) Seja Kn tal que Kn → ∞ enquanto n → ∞. Ent˜ao, para qualquer < ηλ,
Pλ(kn≤ |Cv| ≤ αn) ≤
Corol´ario 1.3.2: Fixemos kn = k · log(n) e α < ηλ e seja δ = k · J (, λ) − 1. Ent˜ao,
para k suficientemente grande, e com probabilidade pelo menos 1 − O(n−δ), n˜ao existe uma componente conexa entre kn e αn.
Etapa 4: Fixemos ν ∈ (12, 1), α ∈ (ηλ
2 , ηλ) e pegamos kn= k · log(n) com k
suficien-temente grande. Definimos n como um evento que,
1. |Zkn− n · ηλ| ≤ n
ν;
2. N˜ao existe v ∈ [n] tal que Kn ≤ |Cv| ≤ αn.
Lema 1.4.1:(|Cmax| ´e igual a Z≥k com alta probabilidade).
Fixemos α ∈ (ηλ
2, ηλ). O evento n ocorre com alta probabilidade, ou seja, com δ o
m´ınimo de δ(k, α) no Color´ario 1.3.2 e δ(k, v) no corol´ario 1.2.1, Pλ(cn) = O(n−δ),
e |Cv| = Z≥kn no evento n.
Referˆencias
1. R. Durett Random Graph Dynamics Cambridge University Press, http://www.math.duke.edu/ rtd/RGD/RGD.html 2. R. Van Der Hofstadt Random Graphs and Complex
Networks. (lecture notes in preparation) available on http://www.win.tue.nl/rhofstad.