• Nenhum resultado encontrado

Processos de renovação obtidos por agregação de estados a partir de um processo markoviano

N/A
N/A
Protected

Academic year: 2021

Share "Processos de renovação obtidos por agregação de estados a partir de um processo markoviano"

Copied!
67
0
0

Texto

(1)

Walter Augusto Fonsêca de Carvalho

PROCESSOS DE RENOVAÇÃO OBTIDOS POR

AGREGAÇÃO DE ESTADOS A PARTIR DE UM PROCESSO

MARKOVIANO

CAMPINAS 2014

(2)
(3)

Universidade Estadual de Campinas Instituto de Matemática, Estatística

e Computação Cientíca

Walter Augusto Fonsêca de Carvalho

PROCESSOS DE RENOVAÇÃO OBTIDOS POR

AGREGAÇÃO DE ESTADOS A PARTIR DE UM PROCESSO

MARKOVIANO

Tese apresentada ao Instituto de Matemática, Estatís-tica e Computação Cientíca da Universidade Estadual de Campinas como parte dos requisitos exigidos para a obtenção do título de Doutor em estatística.

Orientadora: Nancy Lopes Garcia

Coorientador: Alexsandro Giacomo Grimbert Gallo

Este exemplar corresponde à versão final da tese defendida pelo aluno Walter Augusto Fonsêca de Carvalho, e orien-tada pela Profa. Dra. Nancy Lopes Garcia.

(4)
(5)
(6)

Abstract

This thesis is devoted to the study of binary renewal processes obtained as aggregation of states from Markov processes with nite alphabet.

In the rst part, we use a matrix approach to obtain conditions under which the aggregated process belongs to each of the following classes: (1) Markov of nite order, (2) process of innite order with continuous transition probabilities, (3) Gibbsian process.

The second part deals with the distance ¯d between binary renewal processes. We obtain condi-tions under which this distance can be achieved between these processes.

Keywords: Agregating Transformation, Hidden Markov Process, Renewal Processes, Lumpability, Partition-Distance, ¯d-Distance.

Resumo

Esta tese é dedicada ao estudo dos processos de renovação binários obtidos como agregação de estados a partir de processos Markovianos com alfabeto nito.

Na primeira parte, utilizamos uma abordagem matricial para obter condições sob as quais o processo agregado pertence a cada uma das seguintes classes: (1) Markoviano de ordem nita, (2) processo de ordem innita com probabilidades de transição contínuas, (3) processo Gibbsiano.

A segunda parte trata da distância ¯dentre processos de renovação binários. Obtivemos condições sob as quais esta distância pode ser atingida entre tais processos.

Palavras chaves: Transformação Agregante, Processo Markoviano Oculto, Processos de Renovação, Agregabilidade, Distância de Partição, Distância ¯d.

(7)

Sumário

1 Introdução 1

2 Processos De Renovação Obtidos Por Agregação De Estados - Alfabeto Finito 3

2.1 Notação E Denições . . . 3

2.2 Abordagem Matricial . . . 6

2.3 Agregabilidade De Um Processo Markoviano. . . 7

2.4 Continuidade Das Probabilidades De Transição . . . 8

2.5 Gibbsianidade . . . 19

2.6 Exemplos . . . 21

3 Acoplamentos E Discrepância Entre Processos De Renovação 32 3.1 Acoplamento De Renovação . . . 32

3.2 Discrepância Entre Processos De Renovação . . . 33

3.3 Transformação Agregante E Distância De Partição . . . 35

3.4 Transformação Agregante E Distância ¯d . . . 37

3.5 Condição De Ordenação E Acoplamentos De Renovação . . . 40

4 Conclusão 46

Referências Bibliográcas 48

A Álgebra Matricial 52

(8)

Capítulo 1

Introdução

A imagem de um processo Markoviano através de uma transformação sobrejetiva é conhecida na literatura sob nomes distintos associados a várias áreas. Processo de Markov Oculto (Hidden Markov models) Juang & Rabiner (1991), Baum & Petrie (1966), Han & Marcus (2006), muito utilizado em aplicações como na área de reconhecimento de padrões comportamentais, biológicos e temporais como a fala, a escrita, os gestos e a bioinformática, Fator da cadeia de Markov (1-block factor) Boyle & Petersen (2011) em teoria ergódica, Processos difusos (fuzzy processes) Matªoka

(2000) ou amalgamados em física estatística, Fonte Markoviana (Markov Source) Massey (1978),

Cénac et al. (2012) comumente utilizados na teoria da comunicação, Cadeia de Markov Agregada (Lumped/Aggregated Markov Chain)Kemeny & Snell(1976),Boucherie(1993), são modelos basea-dos em regras estocásticas para redes, Cópia com Ruido (Copy With noise)Lestas et al. (2008) em redes genéticas. De forma geral, tais processos aparecem quando um certo fenômeno é observado na presença de um ruído, interferência, que pode levar a confundir, ou não poder se distinguir certos estados. Muitas vezes o interesse é inferir sobre o processo de Markov original a partir do processo observado (imagem), daí, por exemplo, o nome de processo oculto. No entanto, a questão inversa tem atraído bastante interesse na literatura de física estatística, no contexto de Gibbsianidade, de grupos de renormalização e Modelos de Ising da área de mecânica estatística. Supondo que um sistema Markoviano é observado de forma que não se pode distinguir certos estados, que podemos dizer a respeito da distribuição do que vemos?

Nesta tese, propomos estudar a imagem de processos de Markov (com alfabeto nito) por uma transformação sobrejetiva particular chamada agregante. Neste trabalho, uma transformação será dita agregante se ela transforma um elemento do alfabeto original no símbolo 1 e todos os demais no símbolo 0. Desta forma, o processo binário resultante é chamado processo agregado. De um modo geral, sabe-se que um processo oculto não é Markoviano de nenhuma ordem, Harris (1955), Cha-zottes & Ugalde (2011). Nossos processos agregados pertencem à classe dos processos binários de renovação,Shields(1973).

(9)

processo original, para que o processo agregado tenha probabilidades condicionais com respeito ao passado, contínuas. Usamos para isso, uma abordagem matricial semelhante à de Darroch e Seneta (1967), em um estudo sobre quasi-estacionariedade. Condições sucientes para continuidade é encon-trada e, neste caso, estimativas da taxa de continuidade são obtidas como função dos dois maiores auto-valores de uma submatriz da matriz de transição do processo Markoviano original. Também apresentamos condições sobre os auto-valores garantindo que o processo agregado é Markoviano de ordem k. Harris (1955) provou que, se a cadeia original possui matriz de transição com entradas estritamente positivas (uma condição mais forte que a nossa) então a cadeia imagem possui proba-bilidade de transição contínua.

Mais recentemente,Chazottes & Ugalde(2003) obtiveram condições para que o processo imagem seja Gibbsiano no sentido de Bowen (2008). Neste sentido, mostramos que sob a mesma condição mencionada no parágrafo acima, o processo agregado é Gibbsiano no sentido deDobruschin(1968), isto é, que as probabilidades condicionais com respeito ao passado e ao futuro são contínuas. Se um processo é Gibbsiano no sentido de Bowen, então ele é Gibbsiano no sentido de Dobrushin ( Fer-nández et al.(2011)). Segue que uma comparação com o resultado de Chazottes e Ugalde não é direta.

Na segunda parte desta tese estudamos acoplamentos, sob o ponto de vista deFernández et al.

(2001) e a possibilidade de atingir a distância ¯d entre dois processos agregados. Conforme denido porOrnstein (1973) em um estudo sobre teoria ergódica, a distância ¯dé o mínimo de discrepância que pode ser atingida entre dois processos acoplados. A questão de poder construir um acoplamento atingindo esta distância foi extensivamente estudada por (Ellis(1976),Ellis(1978),Ellis(1980a), El-lis (1980b)) no caso de processos Markovianos. Mais recentemente,Galves et al. (2010) mostraram que o acoplamento maximal atinge esta distância no caso de cadeias ordenadas, ordenação esta denida no Capítulo 4. Nós tomamos vantagem da noção de processo agregado para obter exemplos de processos de ordem innita para os quais sabemos construir um acoplamento atingindo ¯d sem assumir a ordenação deGalves et al. (2010).

A tese está organizada da seguinte forma. No Capítulo 2 introduzimos a notação e denições básicas que serão utilizadas em toda tese, apresentamos a principal ferramenta a ser utilizada na tese, que é a construção de um processo de renovação com alfabeto binário, a partir de um processo Marko-viano com alfabeto nito, através da tranformação agregante. Condições para a Markovianidade do processo agregado são apresentadas, assim como as condições para a continuidade e Gibbsianidade. A medida estacionária do processo de renovação, obtido por agregação de estados a partir de um processo Markoviano, através da Transformação Agregante, pode ser facilmente calculada a partir da medida do processo Markoviano original, no Capítulo 3 esse raciocínio é desenvolvido e o alcance a distância ¯dé estudado.

(10)

Capítulo 2

Processos De Renovação Obtidos Por Agregação De

Esta-dos - Alfabeto Finito

Iniciamos este capítulo com a notação e as denições iniciais, que serão utilizadas ao longo de toda a tese. Em seguida estudamos a construção de um processo de renovação com espaço de estados binário, a partir de um processo Markoviano com espaço de estados nito, através de uma transfor-mação sobrejetiva. E, nalmente, estudamos a propriedade de continuidade das probabilidades de transição do processo obtido por este método, bem como a Gibbsianidade.

2.1 Notação E Denições

Seja um conjunto nito A, que chamaremos de alfabeto, cuja cardinalidade denotaremos por |A|. Uma sequência nita qualquer de símbolos no alfabeto A será denominada palavra sobre A. Para todo inteiro n, Andenota o conjunto das palavras de n símbolos. Dados dois inteiros −∞ < m ≤ n < +∞,

a sequência de símbolos em A, xm, xm+1, ..., xn será denotada por xnm e o seu comprimento por

|xn

m| = n − m + 1. Dadas duas palavras xm1 = x1...xm e y1n= y1...ynsobre A, a cocatenação de xm1 e

y1n será denotada por xm1 , y1n e denida por xm1 , y1n= x1...xmy1...yn. Semelhantemente, xn−∞ denota

a sequência (xi)i∈N, toda história passada até o tempo n, e An−∞ o conjunto de tais sequências. As

sequências genéricas em A serão denotadas negritadas e sem sub ou superíndices, x ∈ A.

Todos os processos mencionados aqui são sequências de variáveis aleatórias discretas denidas em um mesmo espaço de probabilidade (Ω, F, P).

Utilizaremos letras maiúsculas em negrito, como X, para representar processos, isto é, X = (Xn)n∈Z é um processo estacionário sobre um alfabeto nito A. Apesar de não convencional,

uti-lizaremos a notação PX para representar as probabilidades de transição do processo X. Assim, para

quaisquer sequências de símbolos x−1

−∞ e qualquer símbolo a ∈ A teremos

PX(a|x−1−∞) = P(X0= a|X−∞−1 = x−1−∞).

Denotaremos por µX a distribuição estacionária do processo X, isto é

(11)

para todos an

1 ∈ An e n ∈ Z.

Apresentamos a denição de processo de renovação que será utilizada em toda a tese.

Denição 2.1 Um processo estocástico estacionário (Xn)n∈Z de medida estacionária µX e alfabeto

nito A é um processo de renovação, se existe um símbolo e ∈ A, tal que

P(X0= a|X−i−1= a−1−i, X−i−1 = e, X−r−i−2= a−i−r−2 ) = P(X0 = a|X−i−1 = a−1−i, X−i−1= e), (2.1)

para todos r ∈ N, i ≤ r, a−1

−i ∈ Ai e a ∈ A.

Um processo de renovação binário, renovando no símbolo 1, possui esta mesma denição, com e = 1. A probabilidade de transição P(X0 = 1|X−i−1 = 0

−1

−i, X−i−1 = 1)será denotada por PX(1|0i1), onde

0i1representa i símbolos 0 antes do símbolo 1. Em todas as nossas considerações, suporemos que lim

n→∞P (1|0

n1) = P (1|0)

sempre que houver convergência de P (1|0n1)quando n → ∞. Onde 0 representa sequência innita

de símbolos todos iguais a zero.

A não ser nos casos mencionados especicamente, todos os processos de renovação abordados nesta tese são denidos no alfabeto {0, 1}, isto é, são binários, construídos através da transformação agregante, que é denida a seguir.

Denição 2.2 Seja o conjunto nito A e a ∈ A. A função sobrejetiva t : A → {0, 1} denida por t(x) =

(

1, se x = a

0, se x 6= a (2.2)

é chamada de Transformação Agregante.

Sem perda de generalidade consideramos sempre A = {1, 2, ..., m}.

Com abuso de notação, utilizaremos t : An→ {0, 1}npara denotar a transformação que mapeia

a sequência xn

1 na sequência t(xn1), t(X) = Y = (yn)n∈N, tal que yn= t(xn), n ∈ N. Como exemplo,

considerando o alfabeto A = {1, 2, 3} e a = 1, a Transformação Agregante (2.2) transforma um processo X em t(X), isto é, a partir da sequência de símbolos

1 1 2 1 2 3 2 1 1 2 2 3 . . . 3 2 3 1 construímos 1 1 0 1 0 0 0 1 1 0 0 0 . . . 0 0 0 1. A generalização para sequências innitas e sequências de varáveis aleatórias é análoga.

A Proposição2.1, a seguir, nos fornece o método construtivo de se obter um processo de renovação por agregação de estados, a partir de um processo Markoviano com alfabeto nito.

(12)

Proposição 2.1 Sejam os conjuntos nitos A = {1, 2, . . . , m} e B = {0, 1}. Seja X um processo Markoviano estacionário com alfabeto A e probabilidades de transição PX(a|b) = p

ba, ∀a, b ∈ A.

Considere a Transformação Agregante t denida por (2.2), então t(X) é um processo de renovação estácionário.

Prova da Proposição 2.1

Vamos mostrar que se o processo X é estacionário então o processo Y = t(X) também é. Como Xé estacionário,

µX(an1) = P(X1n= an1) = P(Xt+1t+n= a n 1)

para todo n ∈ N, t ∈ Z e an

1 ∈ An. Portanto, para todo bn1 ∈ Bn,

P(Yt+1t+n= b n 1) = X an 1∈t−1(bn1) P(Xt+1t+n = a n 1) = X an 1∈t−1(bn1) P(X1n= an1) = P(Y1n= bn1). Logo, Y é estacionário.

Provaremos agora que Y = t(X) é um processo de renovação. Para todo n ∈ N e b−n−2

−r−n−1∈ Ar

e pela propriedade de Markov, temos

PY(1|0n1br1) = P(Y0 = 1|Y−n−1= 0−1−n, Y−n−1= 1, Y−r−n−1−n−2 = b−n−2−r−n−1) = P(X0 = 1|X−n−1∈ t−1(0−1−n), X−n−1= 1, X−r−n−1−n−2 ∈ t−1(b−n−2−r−n−1)) = P(X −n−2 −r−n−1∈ t−1(b −n−2 −r−n−1), X−n−1 = 1, X−n−1 ∈ t−1(0−1−n), X0 = 1) P(X−r−n−1−n−2 ∈ t−1(b −n−2 −r−n−1), X−n−1 = 1, X−n−1 ∈ t−1(0−1−n)) = P(X −n−2 −r−n−1∈ t−1(b−n−2−r−n−1), X−n−1 = 1) P(X−r−n−1−n−2 ∈ t−1(b −n−2 −r−n−1), X−n−1 = 1) .P(X0 = 1, X −1 −n∈ t−1(0 −1 −n)|X−n−1= 1, X−r−n−1−n−2 ∈ t−1(b −n−2 −r−n−1)) P(X−n−1∈ t−1(0−1−n)|X−n−1= 1, X−r−n−1−n−2 ∈ t−1(b−n−2−r−n−1)) = P(X0 = 1, X −1 −n∈ t−1(0−1−n)|X−n−1 = 1) P(X−n−1 ∈ t−1(0−1−n)|X−n−1 = 1) = P(X0 = 1|X−n−1∈ t−1(0−1−n), X−n−1= 1) = PY(1|0n1).

A expressão geral para o cálculo das probabilidades de transição do processo agregado binário será PY(1|0n1) = P xi∈t−1(0)p1xi. Qn−1 i=1 pxixi+1 .pxn1 P xi∈t−1(0)p1xi. Qn−1 i=1 pxixi+1  . (2.3)

Com as devidas adaptações, a Proposição 2.1 pode ser generalizada para uma transformação agregante onde o conjunto B é não binário, mas, pelo menos um elemento de B é imagem de um

(13)

único elemento de A.

2.2 Abordagem Matricial

Seja (Xn)n∈Z um processo Markoviano com espaço de estados A = {1, 2, . . . , m} e probabilidade

de transição PX. Utilizaremos a decomposição da matriz PX como

PX= " p11 V W0 P # , (2.4) onde • p11= P(X0 = 1|X−1 = 1).

• V é o vetor-linha formado pelas probabilidades de transição p1i = P(X0 = i|X−1 = 1),

i ∈ A \ {1}.

• W é o vetor-linha formado pelas probabilidades de transição pi1 = P(X0 = 1|X−1 = i),

i ∈ A \ {1}, W0 é o vetor-coluna obtido pela transposição de W .

• P é a submatriz de PX, de ordem (m−1)×(m−1) com p

ij = P(X0 = j|X−1= i), i, j ∈ A\{1}.

Dena 1 e 0 como sendo os vetores linha, formados todos, respectivamente, de uns e de zeros, de comprimento m − 1. Para evitar os casos triviais, consideraremos sempre em nossas análises V 6= 0 e W 6= 0. Como PX é uma matriz estocástica, 0 ≤ PX

ij ≤ 1 e PX.10 = 10, então a submatriz P é

sub-estocástica, isto é, 0 ≤ pij ≤ 1 e P.10 ≤ 10.

Considerando a Transformação Agregante t dada por (2.2), as probabilidades de transição do processo agregado podem ser calculadas através de

Pt(X)(1|0n+11) = ( p11, se n = −1 V.Pn.W0 V.Pn.10 , se n ≥ 0 , (2.5)

onde P0 = I é matriz identidade de ordem m − 1.

As probabilidades de transição do processo agregado dadas por (2.3) são equivalentes à expressão (2.5). Isso pode ser mostrado por indução da forma seguinte.

1. A expressão (2.5) é válida para n = 0 e n = 1 de modo óbvio. Vamos mostrar usando o produto de matrizes, que é válido para n = 2. A expressão simplicada (2.3) pode ser escrita na forma

Pt(X) 1|031 = Pm k=2 h Pm j=2p1j. (Pmi=2pji.pik) i .pk1 Pm k=2 h Pm j=2p1j. (Pmi=2pji.pik) i .

(14)

m X i=2 pji.pik = P2 e Pt(X)(1|031) = V.P 2.W0 V.P2.10 .

2. Supondo (2.5) válida para n, do mesmo modo,

Pt(X) 1|0n+11 = V.P

n.W0

V.Pn.10 .

Então, para n + 1 teremos Pt(X) 1|0n+21 = Pm in+1=2 h Pm j=2p1j. Pmin=2. . . Pm i2=2 Pm i1=2pji1.pi1i2. . . pinin+1 i .pin+11 Pm in+1=2 h Pm j=2p1j. Pmin=2. . . Pm i2=2 Pm i1=2pji1.pi1i2. . . pinin+1 i .

Pela denição de produto de matrizes, de modo semelhante, teremos Pt(X) 1|0n+21 = V.P

n+1.W0

V.Pn+1.10 .

Mostrando assim, a equivalência entre (2.3) e (2.5).

2.3 Agregabilidade De Um Processo Markoviano

As condições sob as quais o processo t(X) continua sendo um processo Markoviano foi estudado por vários autores como,Burke & Rosenblatt(1958),Rubino & Sericola(1989),Rubino & Sericola

(1991), Ball & Yeo (1993), Buchholz (1994),Ledoux et al. (1994), Peng (1996),Gurvits & Ledoux

(2005), e outros. Utilizaremos a versão de Kemeny & Snell(1976).

Denição 2.3 Um processo Markoviano é dito ser agregável com respeito à partição {A1, A2, . . . , Ak}

de A, se o processo agregado denido pela tranformação sobrejetiva g(x) = i.1(x ∈ Ai) é um processo

Markoviano.

Teorema 2.1 Uma condição necessária e suciente para um processo Markoviano X ser agregável com respeito à partição {A1, A2, . . . , Ak} é que, para todo par de conjuntos Ai, Aj e cada b ∈ Aj

PX(b|a) = P(X0 = b|X−1 = a) = c, para todo a ∈ Ai.

Esses valores comuns formam a matriz de transição pt(X)

ij do processo agregado.

Note que a condição de agregabilidade do Teorema2.1no caso binário, pode ser escrita, utilizando a forma matricial, como W0 = c.10, isto implica que p

(15)

para todo i ∈ A \ {1}. Assim, se a condição do Teorema 2.1 é satisfeita com respeito à partição {{1}, {2, 3..., m}}, o processo agregado t(X) é Markoviano com matriz de transição dada por

Pt(X) = " p11 1 − p11 c 1 − c # .

Observe que a condição de agregabilidade dada no Teorema 2.1 acima, se refere a um processo Markoviano de ordem 1. Outras perguntas que surgem estão apresentadas a seguir.

(1) A partir de um processo Markoviano de ordem 1, é possível construir um processo Markoviano de qualquer ordem nita k 6= 1?

(2) Quais condições um processo Markoviano e uma partição do alfabeto devem satisfazer para que seja possível produzir um processo Markoviano de ordem nita?

(3) No caso de um processo não agregável, que conclusões podemos tirar quanto à continuidade das probabilidades de transição do processo agregado? Quais condições um processo não agregável deve satisfazer, para que o processo agregado obtido possua probabilidades de transição con-tínuas? Neste caso, qual a velocidade de convergência de tais probabilidades condicionais quando n → ∞? A continuidade será denida na próxima Seção.

(4) As medidas de probabilidade do processo agregado mantém a propriedade Gibbsiana? Quais são as condições sob as quais a Gibbsianidade é garantida? A Gibbsianidade será denida na Seção 3.4.

As perguntas de (1) a (3) são respondidas na Seção 3.3, a pergunta (4) é abordada na Seção 3.4 deste capítulo.

Observamos, através da abordagem matricial, que para o processo agregado t(X) ser Markoviano de ordem k, temos que vericar a igualdade

Pt(X) 1|0n+11 = V.P

n.W0

V.Pn.10 =

V.Pk−1.W0 V.Pk−1.10 = P

t(X)(1|0k1), com k ≤ n, para todo n.

2.4 Continuidade Das Probabilidades De Transição

Dedicamos esta seção a encontrar as condições sobre PX para a continuidade das probabilidades

de transição do processo agregado t(X). Lembremos, inicialmente, a denição de continuidade para processos estocásticos.

Denição 2.4 A taxa de continuidade βY(n)

n∈N do processo estocástico Y é denida como

βY(n) = sup

x,y

(16)

Denição 2.5 A probabilidade de transição PY é dita ser contínua se

βY(n) → 0, quando n → ∞.

Como, em nosso contexto, o alfabeto é A = {0, 1}, basta considerar x0 = 1, pois PY(1|x−1−∞) =

1 − PY(0|x−1 −∞). Então βY(n) = sup x,y {|PY(x0|x−1−∞) − PY(x0|x−1−n, y−n−1−∞ )|} = sup x,y{|P(Y0 = x0|Y−∞−1 = x−1−∞) − P(Y0 = x0|Y−n−1 = x−1−n, Y−∞−n−1= y−n−1−∞ )|} = sup x,y{|P(Y0

= 1|Y−∞−1 = x−1−∞) − P(Y0 = 1|Y−n−1= x−1−n, Y−∞−n−1= y−∞−n−1)|}.

Como o Processo Y renova em 1, o supremo é atingido quando x−1

−∞= 0−1−∞= 0, caso contrário,

haveria um símbolo 1, esqueceríamos o passado a partir dele e, desta forma, teríamos βY(n) = 0.

Assim, para l ≥ n, x−1 −l = 0 −1 −l e Y−l−1 = 1, podemos escrever βY(n) = sup y {|P(Y0

= 1|Y−∞−1 = 0−1−∞) − P(Y0= 1|Y−n−1= 0−1−n, Y−n−1= 1, Y−∞−n−2= y−∞−n−2)|}

= sup

l≥n{|P(Y

0= 1|Y−∞−1 = 0−1−∞) − P(Y0= 1|Y−l−1= 0 −1 −l, Y−l−1 = 1)|} = sup l≥n {|PY(1|0−1 −∞) − PY(1|0−1−l1)|} = sup l≥n {|PY(1|0) − PY(1|0l1)|}.

Harris (1955), citado por Verbitskiy (2011a) eVerbitskiy (2011b), mostrou que sob a condição de positividade das probabilidades de transição do processo original, processos agregados que são funções de processos Markovianos, como a Transformação Agregante t que estamos estudando, têm probabilidades de transição contínuas.

Proposição 2.2 Para todo t(X) = Y = (Yn)n∈Z, se PX = pij > 0, qualquer que seja i, j ∈ N,

então

P(Y0= y0|Y−∞−1 = y−∞−1 ) := limn→∞P(Y0= y0|Y−n−1= y−n−1),

para todo n ∈ N e y−1

−∞, y−n−1 ∈ BN, B alfabeto de Y. Existe 0 ≤ c < 1, tal que

βY(n) ≤ (c)n.

Outra indagação que naturalmente surge é, a condição PX = p

ij > 0 é necessária para a

continuidade das probabilidades de transição? que outra condição, mais fraca, garante a continuidade das probabilidades de transição num processo agregado de ordem innita?

(17)

O Caso Primitivo

O Teorema 2.2 dá uma condição suciente mais fraca que a positividade, para a continuidade das probabilidades de transição do processo agregado t(X). Uma matriz irredutível aperiódica é aqui chamada de primitiva; se ela é periódica então a chamamos de cíclica. Maiores detalhes são apresentados no Apêndice B. Utilizaremos a abordagem matricial desenvolvida na Seção 3.1, bem como a Teoria de Perron-Frobenius apresentada no Apêndice B.

Teorema 2.2 Seja (Xn)n∈N um processo Markoviano estacionário, com espaço de estados A =

{1, 2, . . . , m} e matriz das probabilidades de transição decomposta na forma (2.4). Suponha a sub-matriz P irredutível.

Então, o processo agregado t(X) possui probabilidades de transição contínuas se a submatriz P é primitiva.

E ainda

1. A taxa de continuidade βt(X)(n) das probabilidades de transição do processo agregado é da

ordem de

nd2−1. |λ2| λ1

n ,

onde λ1 é o maior auto-valor de P , λ2 é o segundo maior auto-valor, em módulo, de P e d2 é

sua respectiva multiplicidade algébrica.

2. O processo agregado t(X) é processo Markoviano de ordem nita 1 < k ≤ m−1 se a submatriz P possui um único auto-valor não-nulo e todos os demais nulos, com k linhas não nulas em sua forma triangularizada.

Prova do Teorema 2.2

Já vimos que a submatriz P é uma matriz sub-estocástica, logo é não negativa, como requer o Teorema de Perron-Frobênius. Considere λ1, λ2, ..., λr todos os auto-valores de P , ordenados de tal

forma que

|λ1| > |λ2| ≥ |λ3| ≥ . . . ≥ |λr|. (2.6)

Se |λ2| = |λj| para algum j ≥ 3, então d2 ≥ dj, onde dj é a multiplicidade algébrica de λj. Assim,

se P é primitiva, temos um único auto-valor igual ao seu raio espectral, λ1 > 0 e

lim n→∞P t(X)(1|0n+11) = lim n→∞ V.Pn.W0 V.Pn.10 = limn→∞ V.λP 1 n .W0 V.(λP 1) n.10 . Pelo TeoremaB.4, lim n→∞  P λ1 n = G

(18)

e

lim

n→∞P

t(X)(1|0n+11) = V.G.W0

V.G.10 (2.7)

com G = φ.ψ0> 0, onde φ e ψ são os auto-vetores correspondentes a λ

1 de P e P0, respectivamente.

Como l ≥ n + 1, βt(X)(n) → 0 e temos a continuidade.

Para provar o Ítem 1, utilizaremos a primeira parte do Teorema B.5,  P λ1 n = G + O  nd2−1. |λ2| λ1 n , (2.8) onde Ond2−1.  2| λ1 n → 0, quando n → ∞. Para mostrar que

βt(X)(n) = sup l≥n+1 {|PY(1|0) − PY(1|0l1)|} = O  nd2−1. |λ2| λ1 n , basta mostrar que

sup l≥n+1 { P t(X)(1|0l1) − V.G.W0 V.G.10 ld2−1.  2| λ1 l } →constante.

É suciente mostrar que o argumento P t(X)(1|0l1) −V.G.W0 V.G.10 ld2−1.  2| λ1 l →constante quando n, l → ∞. Seja Kl= ld2−1.  2| λ1 l , então V.Pl.W0 V.Pl.10 −V.G.W 0 V.G.10 Kl = V.  P λ1 l .W0 V.P λ1 l .10 − V.G.W0 V.G.10 Kl = V.(G+O(Kl)).W0 V.(G+O(Kl)).10 − V.G.W0 V.G.10 Kl = V.G.W0+V.O(K l).W0 V.G.10+V.O(K l).10 − V.G.W0 V.G.10 Kl = V.G.W0.V.G.10+V.O(K l).W0.V.G.10−V.G.W0.V.G.10−V.G.W0.V.O(Kl).10 (V.G.10)2+V.G.10.V.O(K l).10 Kl = V.G.10.V.O(Kl).W0−V.G.W0.V.O(Kl).10 Kl (V.G.10)2+ V.G.10.V.O(K l).10 → constante.

(19)

Pois V.O(Kl).10 → 0quando n → ∞.

Portanto a taxa de continuidade das probabilidades de transição do processo agregado é dada pelos dois maiores auto-valores, em valor absoluto, da submatriz P .

Para provar o Ítem 2, note que no caso não agregável temos k 6= 1. E ainda, como P é irredutível primitiva, se λ2 = 0, pela ordenação (2.6), P apresenta apenas λ1 não-nulo e todos os demais nulos.

Então, de acordo com a segunda parte do TeoremaB.5, é válida a igualdade Pn= λn1.φ.ψ0

com n ≥ m − 1. Então teremos

Pt(X)(1|0n+11) = V.P n.W0 V.Pn.10 = V.λn1.φ.ψ0.W0 V.λn1.φ.ψ0.10 = V.G.W0 V.G.10 . Note que o processo agregado t(X) é Markoviano de ordem ≤ m − 1.

Note ainda que, segundo Lima (1996) (pág.283), se os auto-valores de P são todos reais, P é triangularizável, isto é, existem Q e ∆, tais que

P = Q.∆.Q0,

onde ∆ é triangular superior e Q é ortogonal. Mais ainda, os auto-valores de ∆ são os elementos de sua diagonal principal. Suponha ainda que P tenha k linhas não nulas em ∆. Note que ∆ satisfaz as condições do LemaA.2presente no Apêndice A, então teremos

∆n= λn−k+11 .∆k−1, assim Pt(X)(1|0n+11) = V.P n.W0 V.Pn.10 = V.(Q.∆.Q 0)n.W0 V.(Q.∆.Q0)n.10 = V.Q.(∆) n.Q0.W0 V.Q.(∆)n.Q0.10 = V.Q.λ n−k+1 1 .∆k−1.Q 0.W0 V.Q.λn−k+11 .∆k−1.Q0.10 = V.(Q.∆.Q 0)k−1.W0 V.(Q.∆.Q0)k−1.10 = V.P k−1.W0 V.Pk−1.10 = Pt(X)(1|0k1).

(20)

O processo agregado t(X) é Markoviano de ordem k ≤ m − 1.

O Caso Cíclico

O nosso objetivo é buscar uma condição necesária e suciente para a continuidade das probabili-dades de transição do processo agregado t(X), sem impor hipóteses muito restritivas sobre o processo original X. Abordaremos agora o caso em que a submatriz P é irredutível e cíclica de índice h. Neste contexto utilizaremos a forma de Frobênius de uma matriz cíclica (B.2) apresentada no Apêndice B, TeoremaB.6.

Teorema 2.3 Seja (Xn)n∈N um processo Markoviano estacionário, com espaço de estados A =

{1, 2, . . . , m} e matriz das probabilidades de transição decomposta na forma (2.4). Suponha a sub-matriz P irredutível e cíclica de índice h. O processo agregado t(X) possui probabilidades de transição contínuas se, somente se

V.G∗.Pr.W0

V.G∗.Pr.10 = C (2.9)

com C constante para todo 1 ≤ r ≤ h − 1, onde G∗ = lim n→∞  Ph λ∗ 1 n e λ∗ 1 é o auto-valor maximal de Ph. Prova do Teorema 2.3

Note que a matriz sub-estocástica P é cíclica, cujos blocos cíclicos são submatrizes primitivas. Escrevendo P na forma de Frobênius (B.2)

P =          0 B1 0 . . . 0 0 0 B2 . . . 0 ... ... ... ... ... 0 0 0 . . . Bh−1 Bh 0 0 . . . 0          . (2.10)

Suas potências apresentarão as formas

P2 =          0 0 B1.B2 0 . . . 0 0 0 0 B2.B3 . . . 0 ... ... ... ... ... ... Bh−1.Bh 0 0 0 . . . 0 0 Bh.B1 0 0 . . . 0          (2.11)

(21)

e assim sucessivamente até Ph=       B1.B2. . . . .Bh 0 . . . 0 0 B2.B3. . . . .Bh.B1 . . . 0 ... ... ... ... 0 0 . . . Bh.B1. . . . .Bh−1       . (2.12)

Note que Ph é primitiva, então, pelo Teorema B.4

lim n→∞  Ph λ∗1 n = G∗

com G∗= φ.ψ0 > 0, onde φ e ψ são os auto-vetores correspondentes a λ

1 de Ph e (Ph)0,

respectiva-mente. Então, podemos escrever

Pt(X)(1|0n.h+11) = V.P n.h.W0 V.Pn.h.10 = V.Pλ∗h 1 n .W0 V.  Ph λ∗ 1 n .10 e Pt(X)(1|0n.h+r+11) = V.P n.h+r.W0 V.Pn.h+r.10 = V.Pλ∗h 1 n .Pr.W0 V.  Ph λ∗1 n .Pr.10 , assim lim n→∞P t(X)(1|0n.h+r+11) = lim n→∞ V.Pλ∗h 1 n .Pr.W0 V.  Ph λ∗1 n .Pr.10 = V.G∗.Pr.W0 V.G∗.Pr.10 = C(r).

Logo haverá continuidade das probabilidades de transição do processo agregado t(X) se e somente se, C(r) = C = constante para todo r ∈ {0, ..., h − 1}, pois, da mesma forma que o caso primitivo, l ≥ n.h + r + 1e βt(X)(n) → 0, garantindo a continuidade das probabilidades de transição.

Observe que, se a submatriz P , cíclica de índice h, apresenta os blocos cíclicos idênticos, podemos vericar que a condição do Teorema2.3é satisfeita. De fato, escreva P na forma

P =          0 B 0 . . . 0 0 0 B . . . 0 ... ... ... ... ... 0 0 0 . . . B B 0 0 . . . 0          .

(22)

A sua potência h será Ph=       Bh 0 . . . 0 0 Bh . . . 0 ... ... ... ... 0 0 . . . Bh       .

Note que Ph é primitiva com auto-valor maximal igual a (λ

1)h, onde λ1 é o auto-valor maximal do

bloco B. Então, pelo TeoremaB.4

lim n→∞  P λ1 n.h = G∗.

Os blocos B são matrizes primitivas, quadradas e idênticas, então quando n → ∞, G∗ é formada

pelos blocos limites limn→∞



B λ1

n.h

= H∗= φ.ψ0, na diagonal principal e zero nas outras entradas. onde φ e ψ são os auto-vetores à direitas e à esquerda, respectivamente, de B e B0, correspondente à

λ1. Operando em blocos, vamos escrever Vie Wi0, i ∈ {1, 2, ..., h}, como subvetores, respectivamente,

de V e W0, com a mesma dimensão de B. Então

lim n→∞P t(X)(1|0n.h+r+11) = lim n→∞ V.  P λ1 n.h .Pr.W0 V.λP 1 n.h .Pr.10 = lim n→∞ Ph−1 i=0 Vi.  B λ1 n.h .Br.Wi0 Ph−1 i=0 Vi.  B λ1 n.h .Br = Ph−1 i=0 Vi.H∗.Br.Wi0 Ph−1 i=0 Vi.H∗.Br = Ph−1 i=0 Vi.φ.ψ0.Br.Wi0 Ph−1 i=0 Vi.φ.ψ0.Br .

Note que φ e ψ são auto-vetores, respectivamente de B e B0, correspondente à λ

1, então

φ.ψ0.Br = φ.ψ0.B.Br−1 = φ.λ1.ψ0.Br−1

= λ1.H∗.Br−1,

assim, sucessivamente, chegamos a

(23)

Substituindo acima, temos então lim n→∞P t(X)(1|0n.h+r+11) = Ph−1 i=0 Vi.(λ1)r.H∗.Wi0 Ph−1 i=0 Vi.(λ1)r.H∗ = Ph−1 i=0 Vi.H∗.Wi0 Ph−1 i=0 Vi.H∗ = V.G ∗.W0 V.G∗.10 = C.

como C não depende de r, a Condição (2.9) é satisfeita e as probabilidades de transição do processo agregado são contínuas.

O Exemplo 2.4 da Seção 3.5, é outro exemplo que ilustra o Teorema 2.3 mostrando como a condição do teorema pode ser vericada, num processo Markoviano cuja matriz de transição apre-senta submatriz P , cíclica, com soma constante nas colunas.

O Caso Redutível

Estudaremos agora o caso em que a submatriz P é redutível. A forma canônica de uma matriz redutível P é escrita como (vide Apêndice B)

P =          T11 T12 T13 . . . T1c 0 T22 0 . . . 0 0 0 T33 . . . 0 ... ... ... ... ... 0 0 0 . . . Tcc          , (2.13)

onde as submatrizes T22, T33, . . . , Tcc são submatrizes quadradas e irredutíveis.

Denição 2.6 As submatrizes irredutíveis Tii, i ∈ {2, 3, ..., c} cujo auto-valor é o máximo

λ1,ii= λ1,max= max i |λ1,i|,

são chamadas de Blocos Dominantes.

Combinando os resultados obtidos nos casos irredutível primitivo e cíclico da submatriz P obte-mos o resultado a seguir.

Teorema 2.4 Seja (Xn)n∈N um processo Markoviano não agregável, estacionário, com espaço de

estados A = {1, 2, . . . , m} e matriz das probabilidades de transição decomposta na forma (2.4). Sem perda de generalidade, assuma que os estados em A \ {1} sejam ordenados de forma que a submatriz

(24)

P, redutível, seja escrita na forma canônica (B.3). O processo agregado t(X) possui probabilidades de transição contínuas se

i. Os blocos dominantes Tii∈ {T22, T33, ..., Tcc} são todos primitivos.

ii. Os blocos dominantes Tii∈ {T22, T33, ..., Tcc}cíclicos, possuem o mesmo índice h e satisfazem

Vi.Gi.(Tii)r.Wi0

Vi.Gi.(Tii)r.10i

= Ci (2.14)

com Ci constante para todo 1 ≤ r ≤ h−1, Gi= limn→∞

(T ii)h λ∗ 1,ii n , λ∗

1,iié o auto-valor maximal

de (Tii)h, i ∈ {2, 3, ..., c} e Tii são blocos irredutíveis dominantes.

Prova do Teorema 2.4

Utilizaremos raciocínio análogo ao caso irredutível primitivo da submatriz P , para provar o Ítem i.

Como as submatrizes T22, T33, ..., Tccsão todas primitivas, então, pelo TeoremaB.7existe o limite

lim n→∞  P λ1,max n =          0 (I − T11)−1.T12.G2 (I − T11)−1.T13.G3 . . . (I − T11)−1.T1c.Gc 0 G2 0 . . . 0 0 0 G3 . . . 0 ... ... ... ... ... 0 0 0 . . . Gc          = bG.

Considerando λ1,max = maxi{λ1,ii} e denindo os blocos Vi, Wi0 e 10i, i ∈ {2, 3, ..., c}, com

dimensões compatíveis com Gi. Operando em blocos, teremos

Gi= lim n→∞  Tii λ1,max n = lim n→∞ Pc i=1Vi.  Tii λ1,ii n .  λ 1,ii λ1,max n .Wi0 Pc i=1Vi.  Tii λ1,ii n . λ1,ii λ1,max n .10i , onde lim n→∞  λ1,ii λ1,max n

= I(λ1,ii= λ1,max), (2.15)

I representa a função indicadora. Finalmente, então teremos

lim n→∞P t(X)(1|0n+11) = lim n→∞ V.Pn.W0 V.Pn.10 = V. bG.W0 V. bG.10 ,

(25)

ondeGb é dado acima e       G2 0 . . . 0 0 G3 . . . 0 ... ... ... ... 0 0 . . . Gc       =     I(λ1,22= λ1,max).φ22.ψ220 . . . 0 ... ... ... 0 . . . I(λ1,cc= λ1,max).φcc.ψcc0     .

Para provar o Ítem ii., utilizaremos o mesmo raciocínio utilizado no caso irredutível cíclico da submatriz P . Escrevendo P na forma canônica, chamaremos os blocos dominantes de Tii. Como são

cíclicos de índice h, podemos escrevê-los na forma

Tii=          0 B1,i 0 . . . 0 0 0 B2,i . . . 0 ... ... ... ... ... 0 0 0 . . . Bh−1,i Bh,i 0 0 . . . 0          .

Tiih é primitiva, então, pelo Teorema B.4

lim n→∞ Tiih λ∗1,max !n = G∗i com G∗

i = φi.ψi0 > 0, onde φi e ψi são os auto-vetores correspondentes a λ∗1,max de Tiih e (Tiih)0,

respectivamente, e λ∗

1,max é o autovalor maximal de Tiih.

Sabemos pelo Teorema B.7que, se o limite Gi= limn→∞

 Tii λ1,max n.h existir, teremos lim n→∞  P λ1,max n.h =          0 (I − T11)−1.T12.G2 (I − T11)−1.T13.G3 . . . (I − T11)−1.T1c.Gc 0 G2 0 . . . 0 0 0 G3 . . . 0 ... ... ... ... ... 0 0 0 . . . Gc          = bG, onde Gi= lim n→∞  Tii λ1,max n.h = lim n→∞ Pc i=1Vi.  Tii λ1,ii n.h .  λ 1,ii λ1,max n.h .Wi0 Pc i=1Vi.  Tii λ1,ii n.h . λ1,ii λ1,max n.h .10i .

Então, a condição para a convergência do limite acima é a convergência dos blocos dominantes. De acordo com o caso cíclico das matrizes irredutíveis, a condição necessária e suciente para esta

(26)

convergência é que

Vi.Gi.(Tii)r.Wi0

V.Gi.(Tii)r.10i

= Ci(r)

com Ci(r)constante para todo 1 ≤ r ≤ h − 1 e Tii, i ∈ {2, 3, ..., c} são os blocos dominantes.

A taxa de continuidade βt(X)(n)das probabilidades de transição do processo agregado no caso

redutível é da ordem de

nd2,max−1. |λ2,max| λ1,max

n ,

onde λ2,maxé o segundo maior auto-valor do bloco dominante e d2,maxé sua respectiva multiplicidade

algébrica. A demonstração deste fato é análoga ao caso irredutível.

2.5 Gibbsianidade

Nesta tese consideramos a nocão de Gibbsianidade introduzida por Dobruschin (1968), a qual está relacionada às propriedades estudadas no presente capítulo para probabilidades de transição, condicionando no passado e no futuro. Uma caracterizacão desta Gibbsianidade, que é ao mesmo tempo, simples e adequada para o propósito desta tese, é dada a seguir.

Denição 2.7 Uma medida de probabilidade não nula, sobre (Ω, F, P), associada ao processo (Xn)n∈Z

é uma medida Gibbsiana se, e somente se as sequências 

P X0= x0|X−n−1 = x−1−n, X1r = xr1



n,r≥1 convergem uniformemente quando n, r → ∞

para todo x0 ∈ A, x−1−n∈ An e xr1 ∈ Ar.

A principal referência sobre medidas Gibbsianas é Georgii(2011). Uma refêrencia muito ligada ao nosso problema e à nossa abordagem éFernández et al. (2011).

O nosso objetivo nesta seção é vericar as condições que devem ser impostas sobre o processo Markoviano original, para que o processo agregado t(X) = Y seja Gibbsiano.

Novamente, suporemos que lim

n,r→∞P Y0= 1|Y−n−1= 1, Y −1

−n = 0−1−n, Y1r= 0r1, Yr+1 = 1 = PY(1|0−1−∞0+∞1 )

sempre que houver convergência.

Para abreviar a notação, vamos escrever

(27)

Utilizando a propriedade de Markov, a expressão geral para o cálculo desta medida de probabilidade será PY(n, r) = P Y0 = 1|Y−n−1= 1, Y−n−1= 0−1−n, Y1r = 0r, Yr+1= 1  = P X0 = 1|X−n−1= 1, X−n−1 ∈ t−1(0−1−n), X1r∈ t−1(0r), Xr+1 = 1  = P X−n−1= 1, X −1 −n∈ t−1(0−1−n), X0 = 1, X1r ∈ t−1(0r), Xr+1 = 1  P X−n−1= 1, X−n−1 ∈ t−1(0−1−n), X1r ∈ t−1(0r), Xr+1= 1  = P i1,...,n∈A\{1} P j1,...,r∈A\{1}p1i1. Qn−1 u=1 piuiu+1 .pin1.p1j1. Qr−1 v=1 pjvjv+1 .pjr1 P i1,...,n∈A\{1} P j1,...,r∈A\{1}p1i1. Qn−1 u=1 piuiu+1 .pinj1. Qr−1 v=1 pjvjv+1 .pjr1 .

Na versão matricial (2.4), esta expressão se torna, P Y0 = 1|Y−n−2= 1, Y−n−1−1 = 0 −1 −n−1, Y1r+1 = 0 r+1, Y r+2 = 1  = ( p11, se n, r = −1 V.Pn.W0.V.Pr.W0 V.Pn+r+1.W0 , se caso contrário , (2.16) onde P0 = I e n, r ∈ {0, 1, 2, ...}.

Teorema 2.5 Seja (Xn)n∈N um processo Markoviano não agregável, estacionário, com espaço de

estados A = {1, 2, . . . , m} e matriz das probabilidades de transição decomposta na forma (2.4). Suponha a submatriz P irredutível. O processo agregado t(X) é Gibbsiano se a submatriz P for primitiva. Com essa condição, a taxa de continuidade é da ordem de

nd2−1. |λ2| λ1

n ,

onde λ1 é o auto-valor maximal de P , λ2 é o segundo auto-valor maximal de P e d2 é sua respectiva

multiplicidade algébrica. Prova do Teorema 2.5

A prova é feita de modo semelhante à seção anterior, utilizando o Teorema B.4. O limite limn,r→∞P Y0 = 1|Y−n−2= 1, Y−n−1−1 = 0−1−n−1, Y1r+1 = 0r+1, Yr+2 = 1



será dado por lim n,r→∞ V.Pn.W0.V.Pr.W0 V.Pn+r+1.W0 = n,r→∞lim V.λP 1 n .W0.V.λP 1 r .W0 λ1.V.  P λ1 n+r+1 .W0 = V.G.W 0.V.G.W0 λ1.V.G.W0 = V.G.W 0 λ1 .

(28)

A não nulidade vem do fato de que G = φ.ψ0 > 0 e supondo que os vetores V, W0 6= 0, para evitar

os casos triviais, como já mencionado.

Para obter a taxa de continuidade, basta utilizar a primeira parte do TeoremaB.5, onde Pn= λn1.G + O(nd2−1.|λ

2|n).

Então a convergência de P Y0 = 1|Y−n−2= 1, Y−n−1−1 = 0−n−1−1 , Y1r+1 = 0r+1, Yr+2 = 1



possui taxa dada pela convergência de P

λ1 n

. Assim, de modo análogo ao Teorema 2.2, a velocidade de con-vergência da medida Gibbsiana é da ordem de

nd2−1. |λ2| λ1

n .

Este resultado também pode ser percebido como consequência do Teorema 4.22 deFernández & Maillard (2004), onde a não nulidade e a taxa exponencial de continuidade das probabilidades de transição, garantem a Gibbsianidade do processo agregado t(X).

2.6 Exemplos

Apresentamos agora alguns exemplos que ilustram os resultados dos teoremas apresentados neste capítulo.

O Exemplo 2.1é uma aplicação dos Teoremas2.2e 2.5, sendo importante por dois motivos i. Primeiro, mostra que a condição PX = p

ij > 0 da Proposição 2.2 não é necessária para a

continuidade das probabilidades de transição do processo agregado.

ii. Segundo, temos um processo agregado não markoviano de nenhuma ordem e com medida Gibb-siana.

Exemplo 2.1 Considere o processo Markoviano X com espaço de estados A = {1, 2, 3} e matriz das probabilidades de transição dada por

PX=    0.3 0.4 0.3 0.2 0 0.8 0.5 0.4 0.1   .

Note, claramente, que para a partição {1}, {2, 3} a condição de agregabilidade não é satisfeita, já que não existe c ∈ R tal que

W0= " 0.2 0.5 # = c. " 1 1 # isto é, W06= c.10.

(29)

O processo agregado obtido não é Markoviano de nenhuma ordem, sendo um processo de ordem innita, isto é, processo de renovação.

Utilizando a abordagem matricial teremos PX= " p11 V W0 P # .

Observando PX, vericamos que a submatriz P é irredutível e ainda

P2 = " 0 0.8 0.4 0.1 #2 = " 0.32 0.08 0.04 0.33 # > 0, (2.17)

vericamos no Apêndice B, pelo Teorema B.3, que P possui índice de primitividade 2. Pelo Teorema 2.2 lim k→∞  P λ1 k = G = φ.ψ0.

Os auto-valores de P são λ1 = 0.6178908 e λ2 = −0.5178908. Assim o raio espectral de P será

λ1 = 0.6178908. Correspondentemente a este auto-valor, obtemos os auto-vetores φ =

" 0.7914243 0.6112672 # de P e ψ = " 0.5434316 0.8394535 #

de P0. Assim podemos calcular G

G = φ.ψ0= " 0.4300849736 0.6643638986 0.3321819125 0.5131303905 # . Obtemos, nalmente lim n→∞P t(X)(1|0n1) = V.G.W0 V.G.10 = h 0.4 0.3 i . " 0.4300849736 0.6643638986 0.3321819125 0.5131303905 # . " 0.2 0.5 # h 0.4 0.3 i . " 0.4300849736 0.6643638986 0.3321819125 0.5131303905 # . " 1 1 # = 0, 382109164.

Com respeito à Gibbsianidade, aplicando o Teorema 2.5, lim n,r→∞P Y0= 1|Y−n−1= 1, Y −1 −n = 0−1−n, Y1r = 0r, Yr+1= 1 = V.G.W0 λ1

(30)

= h 0.4 0.3 i . " 0.4300849736 0.6643638986 0.3321819125 0.5131303905 # . " 0.2 0.5 # 0.6178908 = 0, 427551358.

Antes de apresentar o exemplo seguinte, observamos que, pelo Teorema2.2, um processo Marko-viano pode gerar, pela Transformação Agregante (2.2), processos Markovianos de ordem 1 a k = m − 1, nos demais casos será de ordem innita. O Exemplo 2.2 a seguir é uma aplicação do Teo-rema 2.2, Ítem 2. O Apêndice A será útil neste exemplo, o qual ilustra um processo Markoviano k-agregável.

Exemplo 2.2 Seja (Xn)n∈N um processo Markoviano não agregável, estacionário, com espaço de

estados A = {1, 2, 3, 4, 5} e matriz das probabilidade de transição decomposta na forma (2.4)

PX=         p11 p12 p13 p14 p15 p21 p22 p23 p24 p25 p31 p32 p33 p34 p35 p41 p42 p43 p44 p45 p51 p52 p53 p54 p55         = " p11 V W0 P # .

Suponha que a submatriz P seja primitiva com λ1 > λ2 = λ3 = λ4 = 0. Como os auto-valores de

P são todos reais, P é triangularizável, e sua forma triangularizada apresenta os auto-valores na diagonal principal. Por (2.5)

Pt(X)(1|0n+11) = ( p11, se n = −1 V.Pn.W0 V.Pn.10 , se n ≥ 0. Portanto, Pt(X)(1|0n+11) = V.P n.W0 V.Pn.10 = V.(C.∆.C 0)n.W0 V.(C.∆.C0)n.10 = V.C.∆ n.C0.W0 V.C.∆n.C0.10 .

Note que ∆ satisfaz às condições do Lema A.2. Vamos considerar os casos em que ∆ possua uma, duas e três linhas não nulas.

(31)

1. Se ∆ possui uma linha não nula, P = C.∆.C0, onde ∆ =       λ1 q23 q24 q25 0 0 0 0 0 0 0 0 0 0 0 0       .

Pelo Lema A.2, para todo n < ∞, ∆n−1= λn−2

1 .∆, então Pt(X)(1|0n1) = V.(C.∆ n−1.C0).W0 V.(C.∆n−1.C0).10 = V.(C.λ n−2 1 .∆.C0).W0 V.(C.λn−21 .∆.C0).10 = V.(C.∆.C 0).W0 V.(C.∆.C0).10 = V.P.W 0 V.P.10 = Pt(X)(1|021). No caso de n → ∞ lim n→∞P t(X)(1|0n1) = lim n→∞ V.Pn−1.W0 V.Pn−1.10 = lim n→∞ V.  P λ1 n−1 .W0 V.  P λ1 n−1 .10 = lim n→∞ V.C.∆n−1.C0 λn−11 .W 0 V.C.∆n−1.C0 λn−11 .1 0 = lim n→∞ V.C.λ n−2 1 .∆.C 0 λn−11 .W 0 V.C.λ n−2 1 .∆.C0 λn−11 .1 0 = V. C.∆.C0 λ1 .W 0 V.C.∆.Cλ 0 1 .1 0 = V.P.W 0 V.P.10 = Pt(X)(1|021). Logo t(X) é Markoviano de ordem 2.

(32)

2. Se ∆ possui duas linhas não nulas, P = C.∆.C0, onde ∆ =       λ1 q23 q24 q25 0 0 q34 q35 0 0 0 0 0 0 0 0       .

De modo semelhante, para todo n < ∞, ∆n−1= λn−3

1 .∆2, então Pt(X)(1|0n1) = V.(C.∆ n−1.C0).W0 V.(C.∆n−1.C0).10 = V.(C.λ n−3 1 .∆2.C0).W0 V.(C.λn−31 .∆2.C0).10 = V.(C.∆ 2.C0).W0 V.(C.∆2.C0).10 = V.P 2.W0 V.P2.10 = Pt(X)(1|031). No caso de n → ∞ lim n→∞P t(X)(1|0n1) = lim n→∞ V.Pn−1.W0 V.Pn−1.10 = lim n→∞ V.  P λ1 n−1 .W0 V.  P λ1 n−1 .10 = lim n→∞ V.C.∆n−1.C0 λn−11 .W 0 V.C.∆n−1.C0 λn−11 .1 0 = lim n→∞ V.C.λ n−3 1 .∆2.C 0 λn−11 .W 0 V.C.λ n−3 1 .∆2.C0 λn−11 .1 0 = V.C.∆λ22.C0 1 .W0 V.C.∆λ22.C0 1 .10 = V.P 2.W0 V.P2.10 = Pt(X)(1|031). Logo t(X) é Markoviano de ordem 3.

(33)

3. Se ∆ possui três linhas não nulas, P = C.∆.C0, onde ∆ =       λ1 q23 q24 q25 0 0 q34 q35 0 0 0 q45 0 0 0 0       .

Analogamente aos casos anteriores, pelo LemaA.2, ∆n−1 = λn−4

1 .∆3, então t(X) é Markoviano

de ordem 4.

Podemos notar que o número de linhas não nulas na forma triangularizada de P determina, de fato, a ordem do processo markoviano agregado.

O exemplo a seguir ilustra como a estrutura de uma matriz cíclica de índice m − 1, leva à não continuidade das probabilidades de transição do processo agregado t(X). O TeoremaB.6presente no Apêndice B, apresenta a Forma de Frobenius de uma matriz cíclica, a qual será útil neste exemplo. Exemplo 2.3 Seja (Xn)n∈N um processo Markoviano não agregável, estacionário, com espaço de

estados A = {1, 2, . . . , m} e matriz das probabilidade de transição decomposta na forma (2.4)

PX =          p11 p12 p13 . . . p15 p21 p22 p23 . . . p25 p31 p32 p33 . . . p35 ... ... ... ... ... p51 p52 p53 . . . p55          = " p11 V W0 P # .

Suponha que a submatriz P seja cíclica de índice h = m − 1, isto é, (m − 1)−cíclica. O processo agregado t(X) possui probabilidades de transição descontínuas.

Pelo Teorema B.6podemos escrever:

P = C.∆.C0, onde ∆ =            0 p23 0 . . . 0 0 0 p34 . . . 0 0 0 0 . . . 0 ... ... ... ... ... 0 0 0 . . . pm−1 m pm2 0 0 . . . 0            .

Aplicando (2.5) para as probabilidades de transição do processo agregado t(X) teremos Pt(X)(1|0n+11) = V.P n.W0 V.Pn.10 = V.(C.∆.C0)n.W0 V.(C.∆.C0)n.10 = V.C.∆n.C0.W0 V.C.∆n.C0.10 .

(34)

Observe também que ∆m−1 = p23.p34. . . . .pm2.          1 0 0 . . . 0 0 1 0 . . . 0 ... ... ... ... ... 0 0 0 . . . 0 0 0 0 . . . 1          = m−1 Y i=2 (pi,i+1).pm2.I, note que Qm−1

i=2 (pi,i+1).pm2 é uma constante não nula e I é a matriz identidade. Assim teremos

m − 1valores alternados para as probabilidades de transição. Vamos mostrar que para todo k ≥ 0 e i = {1, 2, 3, . . . , m − 1},

Pt(X)(1|0k(m−1)+i1) = P (1|0i1). (2.18)

Vamos mostrar por indução em k. 1. (2.18) é válido para k = 0. De fato,

P (1|0k.(m−1)+i1) = P (1|0i1). 2. Suponha válido para k,

Pt(X)(1|0k.(m−1)+i1) = Pt(X)(1|0i1). Então, para k + 1, (2.18) é válido para i = 1, pois

Pt(X)(1|0(k+1).(m−1)+11) = V.(C.∆.C 0)(k+1)(m−1)+0.W0 V.(C.∆.C0)(k+1)(m−1)+0.10 = V. k+1 vezes z }| { (C.∆.C0)m−1.(C.∆.C0)m−1. . . . .(C.∆.C0)m−1.(C.∆.C0)0.W0 V. (C.∆.C0)m−1.(C.∆.C0)m−1. . . . .(C.∆.C0)m−1 | {z } k+1 vezes .(C.∆.C0)0.10 = V.Qm−1 i=2 pi,i+1.pm2.I k+1 .I.W0 V.  Qm−1 i=2 pi,i+1.pm2.I k+1 .I.10 = V.I.W 0 V.I.10 = Pt(X)(1|011).

(35)

Supondo válido para i = r, teremos Pt(X)(1|0(k+1).(m−1)+r1) = V.(C.∆.C 0)(k+1)(m−1)+r−1.W0 V.(C.∆.C0)(k+1)(m−1)+r−1.10 = V.(C.∆.C 0)r−1.W0 V.(C.∆.C0)r−1.10 = Pt(X)(1|0r1). Então para i = r + 1, teremos

Pt(X)(1|0(k+1).(m−1)+r+11) = V.(C.∆.C 0)(k+1)(m−1)+r.W0 V.(C.∆.C0)(k+1)(m−1)+r.10 = V. k+1 vezes z }| { (C.∆.C0)m−1.(C.∆.C0)m−1. . . . .(C.∆.C0)m−1.(C.∆.C0)r.W0 V. (C.∆.C0)m−1.(C.∆.C0)m−1. . . . .(C.∆.C0)m−1 | {z } k+1 vezes .(C.∆.C0)r.10 = V.  Qm−1 i=2 pi,i+1.pm2.I k+1 .(C.∆.C0)r.W0 V.Qm−1 i=2 pi,i+1.pm2.I k+1 .(C.∆.C0)r.10 = V.(C.∆.C 0).(C.∆.C0)r−1.W0 V.(C.∆.C0).(C.∆.C0)r−1.10 = Pt(X)(1|0r+11).

Dessa forma, vê-se que há m − 1 valores alternados para as probabilidades de transição, logo não há convergência.

O Exemplo 2.4 é uma aplicação do Teorema 2.3. Ele ilustra o fato de que, quando há soma constante, k, nas colunas de P , a condição do Teorema2.3é satisfeita. Este exemplo é importante por mostrar, novamente, como a condição do Teorema2.3é vericada e mostrar que a probabilidade limite, neste caso, é dada por 1 − k.

Exemplo 2.4 Seja (Xn)n∈Num processo Markoviano não agregável, estacionário, com alfabeto A =

{1, 2, ..., m}e matriz das probabilidades de transição decomposta na forma (2.4).Suponha a submatriz P cíclica de índice h, com soma constante k em suas colunas e cada bloco cíclico Bi com dimensão m−1

h . Vamos vericar que, neste caso, a Condição (2.9) é satisfeita.

Escreva P na forma de Frobênius (2.10) apresentada na prova do Teorema2.3.

Do mesmo modo, Ph tem forma (2.12) e é primitiva com auto-valor maximal igual a λ∗ 1 = kh,

onde k é o auto-valor maximal dos blocos Bi, pois, por hipótese, temos soma constante k, nas colunas

de P . Então, pelo TeoremaB.4

lim  P n.h

(36)

Os blocos Bi são matrizes primitivas e quadradas, então quando n → ∞, G∗ é formada pelos blocos

limites H∗

i = φi.ψi0, na diagonal principal e zero nas outras entradas, onde φi e ψisão os auto-vetores

à direita e à esquerda, respectivamente, do i-ésimo bloco da diagonal principal de Ph, correspondente

à kh. Operando em blocos, escrevemos V

i e Wi0, i ∈ {1, 2, ..., h}, como subvetores, respectivamente,

de V e W0, com a mesma dimensão de B

i. Então a expressão V.(P k) n.h .Pr.W0 V.(P k) n.h .Pr.10 será V1. Qh i=1Bi kh n .(Qr i=1Bi).Wj01+ V2. Qh i=2Bi.B1 kh n .(Qr+1 i=2Bi).Wj02+ . . . + Vh.  Bh.Qh−1i=1Bi kh n .(Bh.Qr−1i=1Bi).Wj0h V1. Qh i=1Bi kh n .(Qr i=1Bi) + V2. Qh i=2Bi.B1 kh n .(Qr+1 i=2Bi) + . . . + Vh.  Bh.Qh−1i=1Bi kh n .(Bh.Qr−1i=1Bi) .

Então, como armamos anteriormente, limn→∞

Qh i=1Bi kh n = H1∗, limn→∞ Qh i=2Bi.B1 kh n = H2∗, ..., limn→∞  Bh.Qh−1i=1 Bi kh n = Hh∗. Logo lim n→∞P t(X) (1|0n.h+r+11) = V1.H ∗ 1.(Qri=1Bi).W 0 j1+ V2.H ∗ 2.(Qr+1i=2Bi).W 0 j2+ . . . + Vh.H ∗ h.(Bh.Qr−1i=1Bi).W 0 jh V1.H1∗.( Qr i=1Bi) + V2.H ∗ 2.( Qr+1 i=2Bi) + . . . + Vh.H ∗ h.(Bh. Qr−1 i=1Bi) = V1.φ1.ψ 0 1.(Qri=1Bi).W 0 1+ V2.φ2.ψ20.(Qr+1i=2Bi).W 0 j2+ . . . + Vh.φh.ψ 0 h.(Bh.Qr−1i=1Bi).W 0 h V1.φ1.ψ10.( Qr i=1Bi) + V2.φ2.ψ02.( Qr+1 i=2Bi) + . . . + Vh.φh.ψh0.(Bh.Qr−1i=1Bi) .

Note que φi e ψi são auto-vetores correspondentes à kh. Como a soma nas colunas é constante,

ψi = 10i é um auto-vetor de Bi0, para todo i ∈ {1, 2, ..., h}. Suponha, sem perda de generalidade que

i = 1, assim teremos φ1.11. r Y i=1 Bi = φ1.11.B1. r Y i=2 Bi = φ1.k.11. r Y i=2 Bi = k.H1∗. r Y i=2 Bi, sucessivamente, chegamos a = kr.H1∗.

Para i 6= 1 o raciocínio é análogo. Substituindo acima, teremos lim n→∞P t(X)(1|0n.h+r+11) = V1.k r.H∗ 1.Wj01 + V2.k r.H∗ 2.Wj02 + . . . + Vh.k r.H∗ h.W 0 jh V1.kr.H1∗+ V2.kr.H2∗+ . . . + Vh.kr.Hh∗ = Ph i=1Vi.Hi∗.Wj0i Ph i=1Vi.Hi∗ = V.G ∗.W0 V.G∗.10 = C

(37)

com C constante para todo r ∈ N. Assim a Condição2.9é satisfeita e as probabilidades de transição do processo agregado são contínuas.

O Exemplo2.5a seguir ilustra o Teorema2.4, mostrando que, quando a submatriz P é redutível ainda pode haver continuidade das probabilidades de transição.

Exemplo 2.5 Considere o processo Markoviano X com espaço de estados A = {1, 2, 3, 4, 5, 6, 7} e matriz das probabilidades de transição dada por

PX=              0.2 0.3 0.1 0.2 0.1 0 0.1 0.2 0.3 0.2 0.1 0 0.1 0.1 0.1 0.1 0.2 0 0.3 0.1 0.2 0 0 0 0.4 0.6 0 0 0.3 0 0 0.2 0.5 0 0 0.7 0 0 0 0 0.3 0 0.6 0 0 0 0 0 0.4              .

Note que para a partição {1}, {2, 3, 4, 5, 6, 7} a condição de agregabilidade não é satisfeita, o processo agregado obtido não é Markoviano de qualquer ordem, sendo um processo de ordem innita.

Utilizando a abordagem matricial teremos PX= " p11 V W0 P # .

Observando PX, vericamos que a submatriz P é redutível e está escrita na forma canônica (B.3)

P =            0.3 0.2 0.1 0 0.1 0.1 0.1 0.2 0 0.3 0.1 0.2 0 0 0.4 0.6 0 0 0 0 0.2 0.5 0 0 0 0 0 0 0.3 0 0 0 0 0 0 0.4            =       T11 T12 T13 T14 0 T22 0 0 0 0 T33 0 0 0 0 T44       .

Como as submatrizes T22, T33, T44 são todas primitivas. Pelo Teorema 2.4 devemos obter os seus

auto-valores, que são, respectivamente, λ1,22 = 0.8 e λ1,33 = 0.3, λ1,44 = 0.4. O bloco dominante

é T22 e λ1,max = 0.8. Assim, correspondentemente ao auto-valor maximal obtemos os auto-vetores

φmax = " 0.8320503 0.5547002 # de T22 e ψmax = " 0.4472136 0.8944272 # de T0 22. Assim φmax.ψ0max= " 0.372104 0.744208 #

(38)

e calculando limn→∞  T22 λ1,max n , teremos lim n→∞  T22 λ1,max n =       0.372104 0.744208 0 0 0.248069 0.496139 0 0 0 0 0 0 0 0 0 0       . Obtendo (I − T11)−1.T12. limn→∞  T22 λ1,22 n teremos " 0.082689741 0.165379593 0 0 0.103362093 0.206724574 0 0 # .

Podemos agora calcularGb

b G =            0 0 0.082698 0.165380 0 0 0 0 0.103362 0.206725 0 0 0 0 0.372104 0.744208 0 0 0 0 0.248069 0.496139 0 0 0 0 0 0 0 0 0 0 0 0 0 0            .

Finalmente, pelo Teorema 2.4

lim n→∞P t(X)(1|0n1) = V. bG.W0 V. bG.10 = h 0.3 0.1 0.2 0.1 0 0.1 i .            0 0 0.082698 0.165380 0 0 0 0 0.103362 0.206725 0 0 0 0 0.372104 0.744208 0 0 0 0 0.248069 0.496139 0 0 0 0 0 0 0 0 0 0 0 0 0 0            .            0.2 0.1 0 0.3 0.7 0.6            h 0.3 0.1 0.2 0.1 0 0.1 i .            0 0 0.082698 0.165380 0 0 0 0 0.103362 0.206725 0 0 0 0 0.372104 0.744208 0 0 0 0 0.248069 0.496139 0 0 0 0 0 0 0 0 0 0 0 0 0 0            .            1 1 1 1 1 1            = 0.2.

(39)

Capítulo 3

Acoplamentos E Discrepância Entre Processos De

Reno-vação

Neste capítulo abordamos acoplamentos e a discrepância entre processos estocásticos. Utilizamos a noção de processos agregados para obter resultados relacionados a este tema e construimos exemp-los de acoplamentos entre processos binários, que alcançam a mínima discrepância entre os processos acoplados. Todos os processos mencionado neste capítulo são estacionários.

Iniciamos nossa abordagem com algumas denições iniciais que foram extraídas e adaptadas a partir deFernández et al. (2001) eEllis (1980b).

3.1 Acoplamento De Renovação

Denição 3.1 Sejam dois processos estocásticos X e Y com alfabeto A = {0, 1} e distribuições estacionárias µX e µY, respectivamente. Um acoplamento entre X e Y, denotado por Z = (X, Y),

é um processo com alfabeto A × A = {(0, 0), (0, 1), (1, 0), (1, 1)}, cujas marginais são µX e µY.

Acoplar dois processos estocásticos signica construí-los simultaneamente utilizando o mesmo procedimento aleatório. Se X e Y são dois processos estocásticos estacionários, com mesmo alfabeto nito A, ao acoplarmos X e Y, obtemos um processo Z com alfabeto A × A, tal que,

X a∈A µZ(a, b) = µY(b) (3.1) e X b∈A µZ(a, b) = µX(a) (3.2) para todo a, b ∈ A.

Acoplamento Markoviano e acoplamento de renovação são denidos a seguir.

Denição 3.2 Sejam dois processos estocásticos X e Y com alfabeto A = {0, 1}. O processo Z = (X, Y)com alfabeto A × A = {(0, 0), (0, 1), (1, 0), (1, 1)} é um acoplamento Markoviano, se Z é um processo markoviano e é um acoplamento entre X e Y de acordo com a Denição3.1.

(40)

Denição 3.3 Sejam dois processos de renovação X e Y com alfabeto A = {0, 1}. O processo Z = (X, Y) com alfabeto A × A = {(0, 0), (0, 1), (1, 0), (1, 1)} é um acoplamento de renovação, se é um processo de renovação de acordo com a Denição 2.1, e é um acoplamento entre X e Y de acordo com a Denição3.1.

3.2 Discrepância Entre Processos De Renovação

Considere dois processos de renovação X e Y com medidas estacionárias µX e µY,

respectiva-mente. Seja CXY o conjunto dos acoplamentos entre X e Y.

Denição 3.4 Dados dois processos X e Y, seja CXY o conjunto dos acoplamentos entre X e Y.

Dena a função

d : CXY → [0, 1], dada por d(Z) =

X

a6=b

µZ(a, b), para todo a, b ∈ A, Z ∈ CXY.

Neste caso d(Z) é a medida dos pares de símbolos do processo acoplado cujas coordenadas de X e Y são diferentes. d(Z) será chamada de discrepância entre X e Y alcançada pelo acoplamento Z. Denição 3.5 A distância ¯dentre X e Y, denotada por ¯d(X, Y), é

¯

d(X, Y) = inf{d(Z) : Z ∈ CXY}. (3.3)

Denição 3.6 Sejam X e Y processos Markovianos. Considere MX,Y o conjunto dos acoplamentos

Markovianos entre X e Y. A distância Markoviana entre X e Y é denida por:

dM(X, Y) = inf{d(Z) : Z ∈ MX,Y}. (3.4)

Denição 3.7 A distância de partição entre os processos aleatórios X e Y, é denida por dp(X, Y) = 1 −

X

a∈A

min{µX(a), µY(a)}, (3.5)

onde µX e µY são as medidas estacionárias de X e Y, respectivamente.

No caso binário, a distância de partição é dada por dp(X, Y) = 1 −

X

a∈A

min{µX(a), µY(a)}

= 1 − min{µX(0), µY(0)} − min{µX(1), µY(1)}

= max{µX(1), µY(1)} − min{µX(1), µY(1)}

(41)

NOTA: Entre dois processos estacionários a distância de partição representa a diferença entre as medidas estacionárias de cada símbolo nos processos. Note que essa medida não tem nenhuma relação com os acoplamentos, leva em consideração apenas as medidas marginais dos dois processos considerados. Se existir um acoplamento que alcança a distância de partição, então também alcança a distância ¯d. De fato, suponha µX(1) ≤ µY(1) (o caso µX(1) ≥ µY(1) é análogo), então para

qualquer acoplamento Z ∈ CXY, temos

dp(X, Y) = 1 −

X

i∈A

min{µX(i), µY(i)}

= 1 − min{µX(1), µY(1)} −

X

i∈A\{1}

min{µX(i), µY(i)}

= m X i=2 µX(i) − m X i=2

min{µX(i), µY(i)}

=

m

X

i=2

(µX(i) − min{µX(i), µY(i)}) ≤ m X i=2 |µX(i) − µY(i)| = m X i=2 | m X k=1 (µZ(i, k) − µZ(k, i)) | = m X i=2 |X k6=i (µZ(i, k) − µZ(k, i)) | ≤ m X i=1 X k6=i (µZ(i, k) + µZ(k, i)) = d(Z).

Portanto, se um acoplamento alcança a distância de partição, alcança também distância ¯d, porém é possível alcançar a distância ¯dsem alcançar a distância de partição, como ilustrado porEllis(1976) (pág.439). Devido à facilidade no cálculo da distância de partição, utilizaremos em muitos casos a comparação com ela em nossas análises.

Teorema 3.1 Sejam dois processos X e Y com alfabeto {0, 1}. Se o acoplamento Z entre X e Y alcança a distância ¯d, então µZ(1, 1) > 0 e µZ(0, 0) > 0.

Prova do Teorema 3.1

Suponha que µZ(1, 1) = 0. A discrepância entre X e Y alcançada por Z é dada por

d(Z) = µZ(1, 0) + µZ(0, 1).

Pela denição de acoplamentos

µX(1) = µZ(1, 0) + µZ(1, 1) = µZ(1, 0)

(42)

Portanto,

d(Z) = µX(1) + µY(1).

Tome outro acoplamento W entre X e Y com µW(1, 1) > 0. A discrepância alcançada por esse

acoplamento é dada por

d(W) = µW(1, 0) + µW(0, 1),

pela denição de acoplamentos

µX(1) = µW(1, 0) + µW(1, 1) e µY(1) = µW(0, 1) + µW(1, 1). Então d(Z) = µX(1) + µY(1) = µW(1, 0) + µW(0, 1) + 2.µW(1, 1) > d(W), pois µW(1, 1) > 0.

O argumento para µ(0, 0) é análogo.

3.3 Transformação Agregante E Distância De Partição

Sejam X e Y, processos Markovianos com alfabeto nito A = {1, 2, 3, . . . , m} e medidas esta-cionárias µX e µY, respectivamente. Suponha que Z = (X, Y) seja um acoplamento entre X e Y

com alfabeto A × A e medida dada por µZ. Considere uma partição A = A1∪ A2∪ . . . ∪ Ak, tal que

Ai∩ Aj = ∅, para algum Ai unitário, com i ≤ k.

Seja B = {1, 2, 3, . . . , k} com k < m, dena a Transformação Agregante t : A → B por t(a) =X

i∈B

i.I(a ∈ Ai). (3.6)

Dena a Transformação Agregante Estendida T : A × A → B × B por T (a, a0) = X

(i,j)∈B2

(i, j).I(a ∈ Ai).I(a0∈ Aj). (3.7)

Dena σ e σ0 por σ(µX, µY) = X i min    X a∈Ai µX(a), X a∈Ai µY(a)    −X i X a∈Ai

min {µX(a), µY(a)} (3.8)

e σ0(µZ) = X a6=b,a,b∈A µZ(a, b) − X i,j X

a∈Ai,b∈Aj,i6=j

(43)

Lema 3.1 Sejam X e Y processos Markovianos. Suponha que exista um acoplamento Z = (X, Y) que alcança a distância de partição entre X e Y. Se σ(µX, µY) = σ0(µZ), então o acoplamento T (Z)

alcança a distância de partição entre t(X) e t(Y). Prova do Lema 3.1

A distância alcançada pelo acoplamento Z será dada por d(Z) = Pa6=bµZ(a, b). Como alcança

a distância de partição entre X e Y, pela Denição3.7,

d(Z) = X a,b∈A,a6=b µZ(a, b) = dp(X, Y) = 1 −X a∈A

min{µX(a), µY(a)}

= 1 −X

i

X

a∈Ai

min{µX(a), µY(a)}.

A distância alcançada pelo acoplamento T (Z) será dada por

T (Z) = X i,j∈B,i6=j µT (Z)(i, j) = X i,j∈B X

a∈Ai,a0∈Aj,i6=j

µZ(a, a0) ≤

X

a6=a0

µZ(a, a0)

= d(Z).

Vamos obter agora a distância de partição entre t(X) e t(Y), dp(t(X), t(Y)) = 1 −

X

i∈B

min{µt(X)(i), µt(Y)(i)}

= 1 −X i∈B min    X a∈Ai µX(a), X a∈Ai µY(a)    ≤ 1 −X i∈B X a∈Ai

min{µX(a), µY(a)}

= dp(X, Y).

Como Z = (X, Y) alcança a distância de partição entre X e Y e usando a hipótese, σ(µX, µY) =

σ0(µZ), teremos 0 = dp(X, Y) − d(Z) = 1 − X i X a∈Ai

min{µX(a), µY(a)} −

X a,b∈A,a6=b µZ(a, b) σ(µX, µY) − σ0(µZ) = X min  X µX(a), X µY(a)  

(44)

−   X a,b∈A,a6=b µZ(a, b) − X i,j X

a∈Ai,b∈Aj,i6=j

µZ(a, b)

.

Rearranjando os termos, teremos 1 −X i min    X a∈Ai µX(a), X a∈Ai µY(a)    =X i,j X

a∈Ai,b∈Aj,i6=j

µZ(a, b)

logo dp(t(X), t(Y)) = d(T (Z)).

Considere a seguinte condição de ordenação sobre a partição de A

Condição 3.1 Para cada subconjunto Ai da partição de A, µX(a) ≤ µY(a), para todo a ∈ Ai.

Teorema 3.2 Sejam as transformações sobrejetivas t e T , denidas em (3.6) e (3.7), respectiva-mente, cuja partição satisfaz a Condição 3.1. Se o acoplamento Z = (X, Y) alcança a distância de partição entre X e Y, então o acoplamento T (Z) alcança a distância de partição entre t(X) e t(Y).

Prova do Teorema 3.2

Pela Condição3.1para cada i ∈ N, sabemos que µX(a) ≤ µY(a) para todo a ∈ Ai,

consequente-mente Pa∈AiµX(a) ≤ P

a∈AiµY(a) para todo i ∈ N. Neste caso,

dp(t(X), t(Y)) = 1 − X i∈B min    X a∈Ai µX(a), X a∈Ai µY(a)    = 1 −X Ai X a∈Ai

min{µX(a), µY(a)}

= dp(X, Y).

Como d(T (Z)) ≤ d(Z) = dp(X, Y)então o acoplamento T (Z) alcança a distância de partição entre

t(X)e t(Y).

3.4 Transformação Agregante E Distância ¯d

Proposição 3.1 Sejam X e Y, processos Markovianos com alfabeto nito A = {1, 2, 3, . . . , m}. Considere a Transformação Agregante dada por (2.2) e T , Transformação Agregante Estendida denida por (3.7). Se o acoplamento Z = (X, Y) alcança a distância ¯d entre X e Y, e

X a,b∈A\{1},a6=b µZ(a, b) ≥ X a,b∈A\{1},a6=b µδ(a, b) (3.10)

(45)

Prova da Proposição 3.1

A distância alcançada pelo acoplamento Z é

d(Z) = X a,b∈A,a6=b µZ(a, b) = X a∈A\{1} µZ(a, 1) + X b∈A\{1} µZ(1, b) + X a,b∈A\{1},a6=b µZ(a, b) = ¯d(X, Y). Note que X a∈A µZ(a, b) = µY(b) e X b∈A µZ(a, b) = µX(a) para todos a, b ∈ A.

Considerando a Transformação T denida por (3.7), a distância alcançada por este acoplamento será dada por

d(T (Z)) = µT (Z)(0, 1) + µT (Z)(1, 0) = X a∈A\{1} µZ(a, 1) + X b∈A\{1} µZ(1, b).

Suponha, por contradição, que T (Z) não alcança a distância ¯d(t(X), t(Y)), então existe τ, acopla-mento entre t(X) e t(Y), tal que

d(T (Z)) > d(τ ). Assim

µT (Z)(0, 1) + µT (Z)(1, 0) > µτ(0, 1) + µτ(1, 0).

Portanto, existe δ ∈ CXY tal que

X a∈A\{1} µZ(a, 1) + X b∈A\{1} µZ(1, b) + 2.µZ(1, 1) − 2.µZ(1, 1) > X a∈A\{1} µδ(a, 1) + X b∈A\{1} µδ(1, b) + 2.µδ(1, 1) − 2.µδ(1, 1). Neste caso, µX(1) + µY(1) − 2.µZ(1, 1) > µX(1) + µY(1) − 2.µδ(1, 1) e consequentemente µZ(1, 1) < µδ(1, 1), (3.11)

Referências

Documentos relacionados

Estudar o efeito da plastificação do ATp com glicerol nas características físico-químicas da blenda PLA/ATp; Analisar a mudança na cristalinidade dos laminados submetidos a

A tem á tica dos jornais mudou com o progresso social e é cada vez maior a variação de assuntos con- sumidos pelo homem, o que conduz também à especialização dos jor- nais,

A placa EXPRECIUM-II possui duas entradas de linhas telefônicas, uma entrada para uma bateria externa de 12 Volt DC e uma saída paralela para uma impressora escrava da placa, para

O objetivo do curso foi oportunizar aos participantes, um contato direto com as plantas nativas do Cerrado para identificação de espécies com potencial

exercício profissional. Relativamente a Pediatria, apesar da maioria das patologias que observei terem sido do foro reumatológico, penso que o meu contacto com esta

Atualmente os currículos em ensino de ciências sinalizam que os conteúdos difundidos em sala de aula devem proporcionar ao educando o desenvolvimento de competências e habilidades

Podemos então utilizar critérios tais como área, arredondamento e alongamento para classificar formas aparentadas a dolinas; no processamento digital de imagem, esses critérios

Apesar da longa distância dos grandes centros urbanos do país, Bonito destaca- se, regionalmente, como uma área promissora dentro do Estado de Mato Grosso do Sul. Bonito,