• Nenhum resultado encontrado

Instituto de Matemática Pura e Aplicada. Gabriel Gomes Figueiredo

N/A
N/A
Protected

Academic year: 2021

Share "Instituto de Matemática Pura e Aplicada. Gabriel Gomes Figueiredo"

Copied!
18
0
0

Texto

(1)

Instituto de Matem´

atica Pura e Aplicada

Gabriel Gomes Figueiredo

Grafos Aleat´

orios de Erd¨

os-R´

enyi

Rio de Janeiro

Novembro de 2015

(2)

Grafos Aleat´orios de Erd¨os-R´enyi

Resumo

Nesse trabalho vamos estudar as componentes conexas dos Grafos Aleat´orios de Erd¨ os-R´enyi e tambomo o processo de forma¸c˜ao dessas componentes podem ser descritas pelos processos de ramifica¸c˜ao.

O que vamos estudar mais afundo ´e que quando a expectativa do grau ´e muito menor que 1, as componentes s˜ao pequenas e a maior componente nesse caso ´e da ordem de log(n). Agora quando a expectativa do grau ´e maior do que 1, existe uma componente conexa gigante que cont´em uma propor¸c˜ao positiva de todos os v´ertices.

Processos de Ramifica¸c˜ao

Para dar in´ıcio ao estudo dos Grafos Aleat´orios de Erd¨os-R´enyi vamos primeiro falar um pouco sobre os Processos de Ramifica¸c˜ao e tamb´em sobre os Processos de Ramifica¸c˜ao com distribui¸c˜ao por Poisson.Vamos fazer isso porque, como j´a dito, podemos descrever as componentes conexas dos Grafos Aleat´orios de Erd¨os-R´enyi a partir de tais processos. Os processos de ramifica¸c˜ao s˜ao usados para descrever as componentes conexas de v´arios grafos aleat´orios. Come¸camos estudando as transi¸c˜oes de sobrevivˆencia e extin¸c˜ao e escrevendo momentos do tamanho total de uma fama .

1. Sobrevivˆencia e Extin¸c˜ao.

Um processo de ramifica¸c˜ao ´e um simples modelo de possibilidades para uma po-pula¸c˜ao em evolu¸c˜ao no tempo. Suponha que cada organismo independente tenha dado nascimento a um n´umero de crian¸cas com a mesma distribui¸c˜ao e de forma independente entre os diferentes indiv´ıduos. Escrevemos que a distribui¸c˜ao (pi)i≥0,

onde

pi = P(indiv´ıduos que tem i crian¸cas)

Escrevemos tamb´em que Zn ´e o n´umero de indiv´ıduos na n-´esima gera¸c˜ao, onde,

por conven¸c˜ao, Z0 = 1. Ent˜ao Zn satisfaz a seguinte rela¸c˜ao de recurs˜ao,

Zn = Zn−1

P

i=1

Xn,i,

onde (Xn,i)n,i≥1 ´e um conjunto de vari´aveis aleat´orias independentes e

identicamen-tes distribuidas. Vamos escrever frequentemente usar X para a distribui¸c˜ao de filhos, de modo que (Xn,i)n,i≥1 ´e um conjunto de vari´aveis aleat´orias independentes

(3)

Um dos maiores resultados dos processos de ramifica¸c˜ao ´e que quando E[X] ≤ 1, a popula¸c˜ao morre com probabilidade um(a menos que X1,1 = 1 com probabilidade

1), enquanto E[X] > 1, existe uma probabilidade n˜ao nula de que a popula¸c˜ao n˜ao se tornar´a extinta. A fim de demonstrar o resultado, escrevemos que a probabilidade de extin¸a˜ao

η = P(∃n : Zn = 0).

Teorema 1.1(Sobrevivˆencia vs. Extin¸c˜ao para processos de ramifica¸c˜ao)

Para um processo de ramifica¸c˜ao com vari´avel de filhos X independetes e identica-mentes distribuidas, η = 1 quando E[X] < 1, enquanto η < 1 quando E[X] > 1. Al´em disso, η = 1 quando E[X] = 1 e P(X = 1) < 1.Al´em do mais, com s 7→ GX(s)

sendo a fun¸c˜ao geradora de probabilidade da distribui¸c˜ao de filhos X, isto ´e,

GX(s) = E[sX],

a probabilidade de extin¸c˜ao η ´e a menor solu¸c˜ao em [0, 1]de

η = GX(η).

Chamamos os processos de ramifica¸c˜ao de subcr´ıticos quando E[X] > 1,cr´ıtico quando E[X] = 1 e P(X = 1) < 1, e supercr´ıticos quando E[X] > 1. O caso quando P(X = 1) = 1 ´e desinteresante e ´e omitido na defini¸c˜ao.

Em muitos casos,estamos interessados na probabilidade de sobrevivˆencia represen-tada por ζ = 1 − η,a qual ´e a probabilidade que os processos de ramifica¸c˜ao sempre sobrevivem, ou seja, ζ = P(Zn > 0 para todo n ≤ 0)

Continuando o estudo sobre o total de filhos T de um processos de ramifica¸c˜ao definimos T = ∞ P n=0 Zn

Representamos GT(s) = E[sT] a fun¸c˜ao geradora de probabilidade de T , ou seja,

Teorema 1.2(Total de filhos da fun¸c˜ao de geradora de probabilidade). Para um processo de ramifica¸c˜ao com vari´avel X independente e identicamente distribuida de filhos tendo fun¸c˜ao geradora de probabilidade GX(s) = E[sX], a fun¸c˜ao geradora

de probabilidade do total de filhos T satisfaz a rela¸c˜ao que, para todo s ∈ [0, 1],

(4)

Esse teorema requer alguns cuidados quando os processos de ramifica¸c˜ao tem pro-babilidade de sobrevivˆencia positiva. Observamos que quando os processos de rami-fica¸c˜ao sobrevivem com probabilidade positiva, ou seja, η < 1 com η a menor solu¸c˜ao para η = GX(η), ent˜ao GT(s) = E[sT1T <∞] somente recebe uma contribui¸c˜ao vinda

de T < ∞ para |s| < 1.Mais, Gr(1 ≡ lims%1Gr(s) satisfaz Gr(1) = GX(Gr(1)) ou

Gr(1) = η. Uma vez que, para cada s ∈ [0, 1),

Gr(s) = E[sT1T <∞] ≤ P(T <),

assim obtemos que Gr(1) = η.

2. Momentos em Fam´ılia.

Nessa se¸c˜ao, escrevemos a m´edia do tamanho de um processo de ramifica¸c˜ao e usamos isso para escrever a m´edia do tamanho de uma fam´ılia ou da m´edia do total de filhos. O principal resultado ´e o seguinte teorema:

Teorema 1.3(Momentos da gera¸c˜ao de fam´ılias) Para todo n ≥ 0, e µ = E[Z1] =

E[X] a expectativa de filhos de um certo indiv´ıduo,

E[Zn] = µn

Teorema 1.4(Desigualdade de Markov para Processos de Ramifica Subcr´ıticos). Fi-xemos n ≥ 0. Seja µ = E[Z1] = E[X] a expectativa de filhos de um indiv´ıduo, e

assumimos que µ < 1. Ent˜ao

P(Zn > 0) ≤ µn

Esse teorema implica que no regime subcr´ıtico, ou seja, quando a expectativa de filhos µ < 1, a probabilidade que a popula¸c˜ao sobrevive no tempo n ´e exponencial-mente menor que n. Em particular,a expectativa do total de filhos ´e finito.

Teorema 1.5(Expectativa do total de filhos) Para um processo de ramifica¸c˜ao com filhos X i.i.d tendo m´edia de filhos µ < 1,

(5)

Processos Aleat´orios de Poisson

Representamos a distribui¸c˜ao dos Processos Aleat´orios de Poisson por Pλ∗e escrevemos tamb´em que T∗ ´e o total de filhos de um Processo Aleat´orio de Poisson e X∗ como sendo uma vari´avel aleat´oria de Poisson.

Para uma vari´avel aleat´oria de Poisson X∗ com m´edia λ, a probabilidade de gerar fun¸c˜oes para a distribui¸c˜ao de filhos ´e igual a

G∗(s) = Eλ[sX∗] = sie−λ λi

i! = e λ(s−1)

Portanto, a rela¸c˜ao para a probabilidade de extin¸c˜ao η (η = Gx(η) onde Gx(s) = E[sX]

torna-se

ηλ = eλ(ηλ−1), (∗)

Onde adicionamos λ para fazer a dependˆencia em λ expl´ıcita.

Para λ ≤ 1, a equa¸c˜ao (∗) tem uma solu¸c˜ao ηλ = 1 que corresponde a quase certeza

de extin¸c˜ao. Para λ > 1 existem duas solou¸c˜oes dos quais o menor ηλ ∈ (0, 1) satisfaz.

Condicionalmente na extin¸c˜ao, um Processo de Ramifica¸c˜ao de Poisson tem lei (p0k)k≥0

dado por,

p0k= ηk−1λ pk = e−ληλ(ληλ)

k

k! ,

onde usamos (∗). Note que essa distribui¸c˜ao de filhos ´e novamente Poisson com m´edia, µλ = ληλ

E, novamente por (∗),

µλe−µλ = ληλe−µλ = λe−λ

Chamamos µ < 1 < λ um par conjugado quando, µe−µ= λe−λ (∗)

Uma vez que x 7→ xe−x aumenta pela primeira vez e em seguida decresce, com um m´aximo de e−1 em x = 1, a equa¸c˜ao xe−x = λe−λ tem precisamente duas solu¸c˜oes, uma solu¸c˜ao µ < 1 e a outra solu¸c˜ao λ > 1. Portanto, para um Distribui¸c˜ao de Filhos de Poisson, o Princ´ıpio da Dualidade ´e reformulado da seguinte maneira:

Teorema 2.1:(Princ´ıpio da Dualidade de Poisson). Seja µ < 1 < λ conjugados. O Processo de Ramifica¸c˜ao de Poisson com m´edia λ, condicionalmente na extin¸c˜ao, tem a mesma distribui¸c˜ao do que um Processo de Ramifica¸c˜ao de Poisson com m´edia µ

(6)

Agora vamos descrever uma lei para o total de filhos de um Processo de Ramifica¸c˜ao de Poisson:

Teorema 2.2:(Total de Filhos de um Processo de Ramifica¸c˜ao de Poisson). Para um processo de ramifica¸c˜ao com vari´avel X∗ i.i.d, onde X∗ tem distribui¸c˜ao de Poisson com m´edia λ,

P∗λ(T

= n) = λn

n−1n!e−λn, (n ≥ 1)

Vamos usar o Teorema de Cayley nos n´umeros de ´arvores rotuladas. Definimos ´arvores rotuladas em [n] como sendo uma ´arvore de tamanho n onde todos os v´ertices tem um r´otulo em [n] e cada r´otulo ocorre precisamente uma vez. Uma aresta de uma ´arvore ´e rotulada ´e um par {v1, v2}, onde v1 e v2 s˜ao r´otulos de dois v´ertices conexos na ´arvore.

O conjunto de arestas de uma ´arvore de tamanho n ´e a cole¸c˜ao de n − 1 arestas. Duas ´

arvores rotuladas s˜ao iguais se e somente se elas possuem o mesmo conjunto de arestas. O Teorema de Cayley diz o seguinte sobre a defini¸c˜ao acima,

Teorema 2.3:(Teorema de Cayley) O n´umero de ´arvores rotuladas de tamanho n ´e igual a nn−2. E equivalente dizer que, o n´´ umero de arvores abrangidas em um grafo

completo de tamanho n ´e nn−2

Teorema 2.4:(Fun¸c˜ao Assint´otica para o total de filhos de um Processo de Rami-fica¸c˜ao de Poisson) Para um processo de ramifica¸c˜ao com vari´avel X∗ i.i.d de filhos, onde X∗ tem distribui¸c˜ao de Poisson com m´edia λ, assim que n → ∞,

P∗λ(T ∗ = n) = 1 λ √ 2πn3e −Iλn Onde, Iλ = λ − 1 − log(λ) Em particular, quando λ = 1, P∗1(T ∗ = n) = (2π)−1/2n−3/2[1 + O(n−1)]

Corol´ario 2.5:(Diferenciabilidade da probabilidade de sobrevivˆencia.) Deixe que ηλ

represente a probabilidade de extin¸c˜ao de um processo aleat´orio com uma distribui¸c˜ao de filhos por Poisson com m´edia λ, e ςλ = 1 − ηλ ´e a probabilidade de sobrevivˆencia. Ent˜ao,

para todo λ > 1,

d dλςλ =

ηλ(λ−µλ)

λ(1−µλ) < ∞,

onde µλ ´e o conjulgado de λ definido em (∗). Quando λ ↓ 1,

(7)

Defini¸c˜oes:

Agora que falamos sobre os Processos de Ramifica¸c˜ao e tamb´em sobre os Processos de Ramifica¸c˜ao com distribui¸c˜ao por Poisson podemos dar in´ıcio aos Grafos Aleat´orios de Erd¨os-R´enyi.

Para trabalhar com os Grafos Aleat´orios de Erd¨os-R´enyi vamos fazer o uso do Grafo G(n, p) onde,

n = representa o n´umero de v´ertices; p = a probabilidade da aresta. Isto ´e, o conjunto dos v´ertices ´e representado como,

[n] = {1, 2, · · · , n}

E vale lembrar que, p = a probabilidade da aresta, pode ser reescrita da seguinte forma,

p = λn, onde λ ´e uma vari´avel.

E sejam, u e v ∈ [n] representamos a aresta designada por u e v por uv

e tamb´em,

uv : {1 ≤ u ≤ v ≤ n}

E vale lembrar que cada aresta ´e igualmente e identicamente distribuida. Dizemos tamb´em que uma aresta ´e ocupada se

P[Uuv = 1] = p

E se a aresta n˜ao for ocupada,

P[Uuv = 0] = 1 − p

´

E importante ressaltar que os Grafos Aleat´orios de Erd¨os-R´enyi acontecem quando as arestas est˜ao ocupadas, ou seja, P [Uuv = 1] = p.

Representamos um caminho entre dois v´ertices s, t ∈ [n] como, s ↔ t

(8)

Por conven¸c˜ao,

s ↔ s

Para v ∈ [n], escrevemos que a Componente Conexa contendo v ou um ramo de v por, C(v) = {x ∈ [n] : x ↔ n}

E o tamanho de C(v) ´e |C(v)|, ou seja,|C(v)| =o n´umero de v´ertices conectados a v.E a Maior Componente Conexa, Cmax, ´e igual a qualquer ramo de C(v) tal que |C(v)| ´e

m´aximo. Representamos tamb´em,

|Cmax| = maxv∈[n]|C(v)|

Note que a defini¸c˜ao acima identifica |Cmax| como ´unico, mas n˜ao podemos identificar

Cmax, como ´unico. Mas podemos fazer com que Cmax seja ´unico, basta fazer Cmax ser o

ramo de tamanho m´aximo contendo um v´ertice com tamanho pequeno.

Nas pr´oximas se¸c˜oes vamos estudar o comportamento da Componente Conexa, C(v), contendo um v´ertice v no grafo G(n, p). Para dar in´ıcio a esse estudo introduziremos um algoritimo que ´e feito em seis etapas e temos como resultado o tamanho da componente conexa contendo v.

(9)

Algoritimo para descobrir o tamanho da C(v) Etapa 1: Existem trˆes estados para os v´ertices:

1. Inativos; 2. Neutros; 3. Ativos.

O estado do v´ertice muda no decorrer da explora¸c˜ao da Componente Conexa de v; Etapa 2: No tempo t = 0, somente v est´a ativo e todos os outros v´ertices est˜ao neutros. E nosso conjunto S0 = 1;

Etapa 3: A cada tempo t ≥ 1, escolhemos um v´ertice ativo w de forma arbitr´aria e exploramos todas as outras arestas ww0, onde w0 percorre todos os v´ertices neutros. Se ww0 ∈ E(G) ent˜ao w0 ´e ativo, caso contr´ario continua neutro;

Etapa 4: Depois pesquisamos todos os conjuntos de v´ertices neutros, nosso conjunto w est´a inativo e deixamos St ser igual ao n´umero de v´ertices ativos no tempo t;

Etapa 5: Quando n˜ao existem mais v´ertices ativos, ou seja, St= 0, o processo termina

e C(v) ´e o conjunto de todos os v´ertices inativos, isto ´e, C(v) = t; Etapa 6: Seja St o n´umero de v´ertices ativos no tempo t,ent˜ao,

S0 = 1

St = St−1+ Xt− 1

Onde X1, X2, · · · , Xts˜ao vari´aveis aleat´orias i.i.d, que representam o n´umero de v´ertices

que tornam-se ativos devido a explora¸c˜ao do t-´esimo v´ertice ativo wt, e depois dessas

ex-plora¸c˜oes, wt torna-se inativo.

Como um resultado, a distribui¸c˜ao de Xt depende do n´umero de v´ertices ativos no

momento t − 1, ou seja, em St−1, e n˜ao em qualquer outro caminho que os v´ertices s˜ao

inativos, neutros ou ativos.

Mais precisamente, cada v´ertice w0 no tempo t − 1 em um grafo aleat´orio tem proba-bilidade p para torna-se ativo no tempo t. A aresta ww0 ´e examinada exatamente uma vez, de modo que a probabilidade condicional para ww0 ∈ ERn(p) ser´a sempre igual a

p. Depois de t − 1 explora¸c˜oes de v´ertices ativos, temos t − 1 v´ertices ativos. Isso deixa n − (t − 1) − St−1 v´ertices neutros.

Ent˜ao, como agora sabemos o que ´e a maior componente conexa e temos um processo para descobrir o tamanho dela vamos dar in´ıcio ao estudo da varia¸c˜ao de λ, isto omo j´adito p = λn e o que vamos estudar ´e o que acontece com a maior componente conexa quando,

(10)

1. λ < 1; 2. λ = 1; 3. λ > 1.

(11)

Regime Subcr´ıtico

Nessa se¸c˜ao, vamos trabalhar com λ = p·n < 1. Para dar in´ıcio a esse processo devemos introduzir alguns conceitos que auxiliar˜ao nas demosntra¸c˜oes do Regime Subcr´ıtico.

• Liga¸c˜ao Informal com os Processos de Ramifica¸c˜ao de Poisson.

O que vamos fazer ´e uma rela¸c˜ao entre os tamanhos dos ramos no Grafo de ERn(λ/n)

e os de Processos de Ramifica¸c˜ao de Poisson. N˜ao vamos usar esse t´opico no restante do trabalho mas vamos usar a filosofia das demonstra¸c˜oes.

Seja S0∗, · · · , X1∗, · · · , H∗ a hist´oria de um Processo de Ramifica¸c˜ao com distribui¸c˜ao de filhos λ e seja S0, · · · , X1, · · · , H a hist´oria de um grafo aleat´orio de ERn(λ/n)

onde,

(

S0 = 1

St= St−1+ Xt− 1

O evento H∗ = (x1, x2, · · · , xt) ´e o total de filhos T∗ de um Processo Aleat´orio de

Poisson igual a t e as vari´aveis x∗1, x∗2, · · · , x∗t s˜ao dadas por x1, · · · , xt.

T = inf(t : St= 0) = inf(t : x1+ · · · + xt= t − 1)

t = inf(t : Si = 0) = min(i : x1+ · · · + xi = i − 1)

E para a qualquer possibilidade (x1+ · · · + xt),

P = (H = (x1+ · · · + xt)) = Qi=1(pxi)

P∗λ(H = (x1+ · · · + xt)) =Qti=1P∗λ(X ∗ i = xi)

Onde (Xi∗)i≥1 ´e uma vari´avel aleat´oria de Poisson com parˆametro λ,

Pλ(H = (x1, · · · , xt)) =

Qt

i=1Pλ(Xi = xi|Xi = xi, · · · , Xi−1= xi−1)

Onde em X1 = x1, , Xi−1= xi−1, a vari´avel aleat´oria Xi ´e binomialmente distribuida

Bin(n − (i − 1) − si−1, λ/n)

[xt ∼ Bin(n − (t − 1) − St−1, p)s0 = 1, si = si−1+ xi−1]

Quando mn = n(1 + o(1)), λ e i s˜ao fixos ent˜ao podemos estender esse tratamento

quando X tem distribui¸c˜ao Bin(mn, λ/n) e ent˜ao limn→∞P(X = i) = e−λ · λ

i

i!.

(12)

limn→∞Pλ(H = (x1, · · · , xt))

= P∗λ(H

= (x

1, · · · , xt))

Teorema 3.1:(Limite Superior na maior Componente Subcr´ıtica) Fixamos λ < 1. Ent˜ao para todo a > I1

λ , existe δ = δ(a, λ) > 0 tal que,

Pλ(|Cmax| ≥ a · log(n)) = O(n−δ)

Vis˜ao Global do Teorema: Esse teorema diz que |Cmax| ≤ a · log(n) com alta

probabilidade para qualquer a > 1

Iλ, onde Iλ = λ − 1 − log(λ)

Estrat´egia para demonstra¸c˜ao: • Z≥k =Pv∈[n]I|Cv|≥k

Onde, Z≥k, ´e o n´umero de v´ertices na componente conexa de tamanho pelo menos

k. E vamos identificar |Cmax| = max {k : Z≥k ≥ k} que implica (|Cmax| ≥ k) =

(Z≥k ≥ k)

• Desigualdade de Markov para Z≥k

Relembrando a Desigualdade de Markov. Seja X uma vari´avel aleat´oria n˜ao negativa com E[X] < ∞, ent˜ao

P(X > a) ≤ E[X]a

Em particular, quando X ´e um valor inteiro com E[X] ≤ m, ent˜ao

P(X = 0) ≥ 1 − m

Ent˜ao aplicando a Desigualdade de Markov em Z≥k escrevemos que,

Eλ[Z≥k] = n · Pλ(|C(1)| ≥ k)

E vamos usar o Teorema abaixo para limitar Pλ(|C(1)| ≥ kn), quando Kn= a·log(n)

para qualquer a > I1

λ.

• Teorema(Domina¸c˜ao Estoc´astica do Tamanho de um Ramo):

Pnp(|C(1)| ≥ k) ≤ Pn,p(T≥ ≥ K)

,ou seja, |C(1)| ≥ k  T≥

(13)

Onde T≥´e o total de filhos de um Processo de Ramifica¸c˜ao Binomial com parˆametros n e p, e Pλ ´e a lei para ERn(λn). Portanto Z≥k = 0 quando, |Cmax| ≤ k

Teorema 3.2:(Limite Inferior na Maior Componente Subcr´ıtica) Fixamos λ < 1. Ent˜ao para todo a > I1

λ, existe δ = δ(a, λ) tal que,

Pλ(|Cmax| ≤ a · log(n)) = O(n−δ)

Vis˜ao Global do Teorema: Esse teorema diz que |Cmax| ≥ a · log(n) com alta

probabilidade para qualquer a < I1

λ, onde Iλ = λ − 1 − log(λ)

Estrat´egia para demonstra¸c˜ao: Usamos a nota¸c˜ao: χ≥k(λ) = Eλ[|C(v)| I{|C(v)|≥k}]

e tamb´em fazemos o uso da seguinte preposi¸c˜ao,

• Preposi¸c˜ao: (A estimativa de varia¸c˜ao de Z≥k em termos de χ≥k(λ)) Para todo n e

K ∈ [n]

V arλ(Z≥k) ≤ n · χ≥k(λ).

Assim, enunciados os dois principais teoremas da se¸c˜ao podemos dar in´ıcio ao Com-portamento Cr´ıtico.

(14)

O Comportamento Cr´ıtico

Nessa se¸c˜ao vamos estudar o comportamento da maior componente conexa de ERn(λn)

para p = 1n

Teorema 1:(Grande Cacho Cr´ıtico)

Pegamos λ = 1 + θn−13 , onde θ ∈ R. Existe uma constante b = b(θ) > 0 tal que,

para todo ω > 1, P1+θn−1 3 (ω −1n2 3 ≤ |Cmax| ≤ ωn 2 3) ≥ 1 − b ω

Vis˜ao Global do Teorema:

Esse Teorema mostra que a Grande Compoente Conexa obedece uma escala n˜ao trivial. Quando |Cmax| ´e logariticamente pequeno no Regime Subcr´ıtico, λ < 1, e

|Cmax| = θP(n) no Regime Supercr´ıtico, λ > 1, na valor cr´ıtico, λ = 1, vemos que

o maior cacho ´e θP(n

2

3). O resultado do Teorema 1 mostra que a vari´avel aleat´oria

|Cmax| n

−2

3 ´e ’apertada’, no sentido de que |Cmax| n −2

3 ≤ ω com alta probabilidade,

de modo que, com uma propabilidade consider´avel |Cmax| = θ(n

2 3)

Estrat´egia para Demonstra¸c˜ao:

Come¸camos estudando a extremidade da distribui¸c˜ao do |C(v)| para o caso cr´ıtico, λ = 1. Generalizamos o Teorema da Domina¸c˜ao Estoc´astica e o Teorema do Limite Inferior na Extremidade de um Cacho para λ = 1 + θn−13 que est˜ao perto do valor

cr´ıtico λ = 1. Vamos usar tamb´em as duas seguintes preposi¸c˜oes: 1. Preposi¸c~ao: (Extremidade dos Cachos Cr´ıticos)

Tome λ = 1 + θn−13 , onde θ ∈ R, e deixe r > 0. Para k ≤ rn 2

3, existe

constantes 0 < c1 < c2 < ∞ onde c1 = c1(r, θ) tal que , minr≤1c1(r, θ) > 0, e

c2 independente para r e θ, tal que, np seja suficientemente grande, c1 √ k ≤ P1+θn−13 (|C(1)| ≥ k) ≤ c2((θ ∨ 0)n −1 3 + √1 k)

Vis˜ao Global da Preposi¸c˜ao:Essa Preposi¸c˜ao implica que o tamanho da extremidade de um cacho cr´ıtico obedece assintoticamente o total de filhos de um Processo de Ramifica¸c˜ao Cr´ıtico. O resultado dessa Preposi¸c˜ao vale somente para valores de k qua n˜ao s˜ao t˜ao grandes. De fato, quando k > n temos,

(15)

2. Preposi¸c~ao: (Limite do Tamanho Cr´ıtico de um Ramo Esperado) Tome λ = 1 + θn−13 onde θ < 0. Ent˜ao, para todo n > 1,

E1+θn−13 [|C(1)|] ≤ n

1 3

|θ|

No Regime Cr´ıtico, pode-se esperar que a expectativa do tamanho de um ramo recebe uma quantidade consider´avel vinda do grande cacho. Isso sugere que, para qualquer v ∈ [n],

E1+θn−13 [|C(1)|] ∼ E1+θn−13 [|C(v)| Iv∈|Cmax|] = E1+θn−13 [|Cmax| Iv∈|Cmax|],

onde ∼ representa a mesma destribui¸c˜ao. Quando |Cmax| = θ(n2/3)

E1+θn−13 [|C(v)| Iv∈|Cmax|] ∼ n

2/3

P1+θn−13 (1 ∈ Cmax)

Al´em disso, quando |Cmax| = θ(n2/3),

P1+θn−13 (v ∈ Cmax) ∼ n

2/3

n = n

−1/3

Portanto ´e intuitivo concluir que,

E1+θn−13 [|C(1)| ∼ n1/3

Como foi exposto os principais teoremas do Comportamento Crco vamos dar seg-mento ao assunto falando agora sobre o Regime Supercr´ıtico.

(16)

Regime Supercr´ıtico

Fixamos λ < 1. Escrevemos ζλ = 1 − ηx para a probabilidade de sobrevivˆencia de

um processo aleat´orio de Poisson com m´edia λ

Teorema 1(Lei dos Grandes N´umeros para a Componente Gigante). Fixamos λ < 1. Ent˜ao para todo ν ∈ (12, 1),existe δ = δ(ν, λ) > 0 tal que,

Pλ(| |Cmax| − ηλ(n)| ≥ nnu) = O(n)−δ

Vis˜ao Global do Teorema 1:

Podemos interpretar esse Teorema da seguinte forma. Um v´ertice tem uma grande componente conexa com probabilidade ηλ. Portanto, existe ordem ηλ(n) dos v´etices

com grande componente conexa. Esse Teorema implica que quase todos os v´ertices na grande componente conexa s˜ao de fato componentes conexas, e isso chamamos de Componente Gigante.

Estrat´egia para demonstra¸c˜ao: Relembramos que Z≥k = P

v∈[n]

I{|Cv|≥k}´e o n´umero de v´ertices na componente conexa

de tamanho pelo meno k e dividimos a estrat´egia de demonstra¸c˜ao em 4 etapas. Etapa 1: Para Kn = K · log(n) e K suficientemente grande, escrevemos,

Eλ[Z≥kn] = n · Pλ(|Cv| ≥ kn)

Calculamos Pλ(|Cv| ≥ kn) usando a OBS4 e a seguinte preposi¸c˜ao,

Preposi¸c˜ao 1.1: Para Kn≥ a · log(n) onde a > I1

λ, n suficientemente grande,

Pλ(|Cv| ≥ kn) = ηλ+ O(knn)

Etapa 2: Usamos a estimativa de varia¸c˜ao em Z≥k, que implica, para todo ν ∈ (12, 1)

|Z≥kn− Eλ[Z≥kn]| ≤ n

ν

Tamb´em usamos a nota¸c˜ao,

χ<k(λ) = Eλ[|Cv| I{|Cv|<k}]

Preposi¸c˜ao 1.2:(A Segunda Estimativa de Varia¸c˜ao em Z≥k).

Para todo n e k ∈ [n],

(17)

Corol´ario 1.2.1:(Concentra¸c˜ao do N´umero de V´ertices na Grande Componente) Fixamos kn = k · log(n) e ν ∈ (12, 1). Ent˜ao para k grande e todo δ < 2ν − 1,

Pλ(|Z≥kn− n · ηλ| > n

ν) = O(n−δ)

Etapa 3: Seja J (α, λ) = Ig(α,λ) com g(α, λ) = (1−e

−λ·α)

α . Ent˜ao J (α, λ) > 0 sempre

que g(α, λ) < 1.

Preposi¸c˜ao 1.3.1:(Lei Exponencial para Ramos Supercr´ıticos menores que ηnλ) Seja Kn tal que Kn → ∞ enquanto n → ∞. Ent˜ao, para qualquer < ηλ,

Pλ(kn≤ |Cv| ≤ αn) ≤

Corol´ario 1.3.2: Fixemos kn = k · log(n) e α < ηλ e seja δ = k · J (, λ) − 1. Ent˜ao,

para k suficientemente grande, e com probabilidade pelo menos 1 − O(n−δ), n˜ao existe uma componente conexa entre kn e αn.

Etapa 4: Fixemos ν ∈ (12, 1), α ∈ (ηλ

2 , ηλ) e pegamos kn= k · log(n) com k

suficien-temente grande. Definimos n como um evento que,

1. |Zkn− n · ηλ| ≤ n

ν;

2. N˜ao existe v ∈ [n] tal que Kn ≤ |Cv| ≤ αn.

Lema 1.4.1:(|Cmax| ´e igual a Z≥k com alta probabilidade).

Fixemos α ∈ (ηλ

2, ηλ). O evento n ocorre com alta probabilidade, ou seja, com δ o

m´ınimo de δ(k, α) no Color´ario 1.3.2 e δ(k, v) no corol´ario 1.2.1, Pλ(cn) = O(n−δ),

e |Cv| = Z≥kn no evento n.

(18)

Referˆencias

1. R. Durett Random Graph Dynamics Cambridge University Press, http://www.math.duke.edu/ rtd/RGD/RGD.html 2. R. Van Der Hofstadt Random Graphs and Complex

Networks. (lecture notes in preparation) available on http://www.win.tue.nl/rhofstad.

Referências

Documentos relacionados

Quanto ao tratamento periodontal em pacientes com coagulopatas hereditárias, é correto afirmar: a Polimentos coronarianos devem ser realizados de maneira esporádica, pois

Para atender a esse objetivo, foi realizado o levantamento de informações fitogeográficas e florísticas da vegetação do Parque; a identificação de 30 elementos arbóreos

As variáveis peso, estatura e circunferência da cintura apresentaram valores médios superiores aos homens em relação as mulheres, sendo o inverso observado para índice

Quando contratados, conforme valores dispostos no Anexo I, converter dados para uso pelos aplicativos, instalar os aplicativos objeto deste contrato, treinar os servidores

Ninguém quer essa vida assim não Zambi.. Eu não quero as crianças

encontros, redes de informação e comunicação via internet, redes de ação cívica, organizações em forma de pirâmides e personalidades carismáticas. No tocante

Com base no trabalho desenvolvido, o Laboratório Antidoping do Jockey Club Brasileiro (LAD/JCB) passou a ter acesso a um método validado para detecção da substância cafeína, à

Quando o falante utiliza padrões de sua língua materna para as produções na língua-alvo, com vistas a produzir, por exemplo, sons que não fazem parte do repertório