• Nenhum resultado encontrado

a convergência das distribuições de probabilidade para

N/A
N/A
Protected

Academic year: 2021

Share "a convergência das distribuições de probabilidade para"

Copied!
13
0
0

Texto

(1)

ISSN 2316-9664 Volume 11, dez. 2017

Amanda Silvieri Leite de Oliveira

UNESP - Universidade Estadual Paulista “J´ulio de Mesquita Filho”, Bauru/SP.

amandasilvieri@hotmail.com

Tha´ıs Saes Giuliani Ribeiro UNESP - Universidade Estadual Paulista “J´ulio de Mesquita Filho”, Bauru/SP

thais saes@hotmail.com

Fabiano Borges da Silva UNESP - Universidade Estadual Paulista “J´ulio de Mesquita Filho”, Bauru/SP

fabiano@fc.unesp.br

Cadeia de Markov: modelo probabil´ıstico e

convergˆencia das distribuic¸˜oes de probabilidade

Markov chain: probabilistic model and convergence of probability distributions

Resumo

Neste artigo, mostramos como construir um processo estoc´astico de Markov e seu espac¸o de probabilidade a partir das probabi-lidades de transic¸˜ao e da distribuic¸˜ao inicial. Al´em disso, mos-tramos a convergˆencia das distribuic¸˜oes de probabilidade para uma cadeia com dois estados e probabilidades de transic¸˜ao po-sitivas, usando t´ecnicas de resoluc¸˜ao de recorrˆencias lineares n˜ao-homogˆeneas para sequˆencias.

Palavras-chave: Cadeia de Markov, processos estoc´asticos,

espac¸o de probabilidade, convergˆencia, probabilidade condicio-nal.

Abstract

In this article, we show how to construct a stochastic Markov pro-cess and its probability space from the transition probabilities and the initial distribution. In addition, we show the convergence of probability distributions to a chain with two states and positive transition probabilities, using non-homogeneous linear recurrence resolution techniques for sequences.

Keywords: Markov chain, stochastic processes, probability

space, convergence, conditional probability.

(2)

1

Introduc¸˜ao

Processos de Markov descrevem a evoluc¸˜ao de sistemas dinˆamicos aleat´orios sem mem´oria. Mais precisamente, considere um espac¸o de estados com um n´umero finito (ou enumer´avel) de

elementosE = {e1, ..., en}. Um processo estoc´astico discreto (Xn)n∈N´e uma cadeia (ou processo)

de Markov se a probabilidade condicional satisfizer

P(Xn+1= xn+1|X0= x0, ..., Xn= xn) = P(Xn+1= xn+1|Xn= xn), (1)

para todo n ≥ 1 e para toda sequˆencia x0, x1, ..., xn+1de elementos do espac¸o de estadosE . Essa

condic¸˜ao (1) significa, em linguagem natural, pensando que n indica o tempo, que o futuro do processo, uma vez conhecido o estado presente, ´e independente do passado.

As probabilidades condicionais

P(Xn+1= ei|Xn= ej),

s˜ao chamadas probabilidades de transic¸˜ao. E se para cada i, j

P(Xn+1= ei|Xn= ej) = P(X1= ei|X0= ej),

para todo natural n, a cadeia de Markov ´e dita estacion´aria e as probabilidades de transic¸˜ao, que

n˜ao mudam ao longo do tempo, s˜ao denotadas por pi j.

Um processo de Markov est´a completamente definido a partir do momento em que se espe-cifica as probabilidades de transic¸˜ao e a distribuic¸˜ao inicial de probabilidades dos estados, como pode ser visto em Brezezniak e Zastawniak (1999, p.85). Ao processo associa-se uma matriz de probabilidades de transic¸˜ao T , onde as entradas da matriz s˜ao dadas pelas probabilidades de transic¸˜ao pi j, ou seja,

T = [pi j]r×r.

As entradas da matriz Tn correspondem `a probabilidade de, saindo do estado ej, chegar-se ao

estado eidepois de n passos. Desta maneira, dada uma distribuic¸˜ao inicial, representada

matrici-almente por

v0= [v1...vr]t,

a distribuic¸˜ao do processo no tempo n ≥ 1 ´e dada por vn= Tnv0.

Neste artigo estamos interessados basicamente em dois t´opicos:

1. Estudar convergˆencia das distribuic¸˜oes de probabilidade vn, que evoluem em tempos

dis-cretos n ∈ N, para uma cadeia finita com dois estados (Teorema 4). Para isto, usaremos t´ecnicas de resoluc¸˜ao para recorrˆencias lineares n˜ao-homogˆeneas.

2. Mostrar como construir um espac¸o de probabilidade e um processo estoc´astico Xnde

Mar-kov, isto ´e, que verifica (1), a partir de um modelo em que ´e apenas dado as probabilidades de transic¸˜ao e uma distribuic¸˜ao inicial (Teorema 5).

(3)

2

Espac¸o de probabilidade e processos estoc´asticos

Nesta sec¸˜ao, daremos alguns resultados que ser˜ao necess´arios, na construc¸˜ao do processo estoc´astico a partir das probabilidades de transic¸˜ao.

O conjunto de todos os resultados poss´ıveis de um experimento ´e o espac¸o amostral Ω, e um subconjunto A ⊂ Ω deste espac¸o ´e chamado de evento aleat´orio. Os eventos Ω, /0 s˜ao chamados de evento certo e evento imposs´ıvel, respectivamente. Uma maneira de definir uma probabilidade P em um determinado evento A, ´e a maneira “frequentista” ou “estat´ıstica”. Mais precisamente,

P(A) = limn→∞1

n× {n´umero de ocorrˆencias de A em n “ensaios” independentes}.

Esta maneira, a qual n˜ao usaremos neste trabalho, n˜ao ´e ´unica (ver por exemplo James (1996)). Neste artigo, usaremos a definic¸˜ao que se deve a Kolmogorov. Para isto, iremos admitir que a

classeF dos eventos aleat´orios possu´ı as seguintes propriedades:

1. Ω ∈F ;

2. Se A ∈F , ent˜ao Ac∈F ;

3. Se A ∈F e B ∈ F , ent˜ao A ∪ B ∈ F .

Esta classe F de subconjuntos de Ω ´e chamada de ´algebra. E quando a terceira propriedade

acima vale para uni˜oes enumer´aveis, ou seja, se An∈ A para n = 1, 2, . . . , temos que

∞ [ n=1

An∈F ,

ent˜ao, neste caso, a classe F ´e chamada de σ-´algebra, e o par ordenado (Ω,F ) de espac¸o

mensur´avel. Neste espac¸o definimos uma medida de probabilidade como sendo uma func¸˜ao P : F → [0, 1], tal que

1. P( /0) = 0;

2. Se (An)n≥1 ´e uma sequˆencia de subconjuntos disjuntos, An∈F , ent˜ao

P( ∞ [ k=1 Ak) = ∞

k=1 P(Ak).

SendoF uma σ-´algebra, a tripla (Ω,F ,P) ´e chamada de espac¸o de probabilidade. Se B ∈ F

e P(B) > 0, a probabilidade condicional do evento A dado B ´e definida por

P(A|B) =P(A ∩ B)

P(B) , A ∈F .

Proposic¸˜ao 1 Se a sequˆencia (finita ou enumer´avel) de eventos aleat´orios A1, A2, ... formam uma

partic¸˜ao de Ω, ent˜ao para todo B ∈F temos que

P(B) = ∞

i=1 P(B ∩ Ai) = ∞

i=1 P(Ai)P(B|Ai)

(4)

2.0.1 Processo estoc´astico com tempo discreto

Vamos assumir primeiramente que Ω ´e um espac¸o amostral finito eF ´e uma σ-´algebra para

este espac¸o amostral. Uma func¸˜ao X : Ω → R ´e chamada F -mensur´avel ou vari´avel aleat´oria em

(Ω,F ) se os conjuntos

{X = xi} = {ω ∈ Ω : X(ω) = xi}, i = 1, 2, ..., k,

pertencem aF , onde {x1, x2, ..., xk} s˜ao elementos da imagem da func¸˜ao X . Isto significa que,

se temos a informac¸˜ao descrita porF , isto ´e, sabemos que o evento ocorreu, ent˜ao sabemos qual

o valor de X ocorreu. ´E f´acil ver, por exemplo, que seF = 2Ω (conjunto das partes de Ω), ent˜ao

qualquer func¸˜ao em Ω ´e uma vari´avel aleat´oria. Um processo estoc´astico ´e uma sequˆencia de

vari´aveis aleat´orias Xn, ou seja, para cada tempo n ∈ N, Xn´e uma vari´avel aleat´oria em (Ω,F ).

Para ilustrar tal conceito, considere uma sequˆencia de experimentos: o lanc¸amento de uma moeda n˜ao viciada em dois instantes, t = 1, 2. Denotemos por α e β , os resultados obtidos para cara e coroa, respectivamente. Neste caso temos que nosso espac¸o amostral ´e dado por

Ω = {ω1= (α, β ), ω2= (α, α), ω3= (β , α), ω4= (β , β )}.

Seja A o evento onde se obt´em no primeiro experimento cara, isto ´e, A = {ω1, ω2}. Al´em disso,

considere as σ -´algebrasF1= {Ø, Ω, A, AC},F2= 2Ω, e as seguintes func¸˜oes:

(a) X : Ω → R dada por

X(ω1) = X (ω2) = 15; X(ω3) = X (ω4) = 45.

(b) Y : Ω → R dada por

Y(ω1) = 17, Y(ω2) = Y (ω3) = 36, Y(ω4) = 42.

Temos ent˜ao que X ´e vari´avel aleat´oria em (Ω,F1). De fato, temos que

{X = 15} = A ∈F1;

{X = 45} = AC∈F1.

Enquanto que a func¸˜ao Y n˜ao ´eF1-mensur´avel, uma vez que, por exemplo,

{Y = 36} = {ω2, ω3} /∈F1.

Por outro lado, Y ´e F2-mensur´avel j´a que todo subconjunto de Ω pertence a F2 = 2Ω, por

definic¸˜ao.

Uma filtrac¸˜ao F ´e uma colec¸˜ao de σ -´algebras,

F = {F0,F1,F2, ...,Fn, ...,FN}, Fn⊂Fn+1,

a qual ´e usada para modelar um fluxo de informac¸˜oes do processo. Em geral, se toma F0=

(5)

um observador consegue saber mais detalhes sobre os acontecimentos dos experimentos, ou seja, partic¸˜oes “mais finas” de Ω. Na ilustrac¸˜ao acima, temos que

F = {F0,FA, 2Ω}

´e uma filtrac¸˜ao.

Dizemos que um processo estoc´astico Xn ´e adaptado a filtrac¸˜ao F, se cada Xn : Ω → R

´e vari´avel aleat´oria em (Ω,Fn), ou equivalentemente, Xn ´e Fn-mensur´avel. Por exemplo, a

sequˆencia de vari´aveis aleat´orias (X ,Y ), formada com as mesmas func¸˜oes mencionadas

anterior-mente, itens (a) e (b), ´e um processo estoc´astico adaptado a filtrac¸˜ao F = {F1,F2}.

Seja (Ω, 2Ω) um espac¸o amostral com a ´algebra de todos os eventos, e X uma vari´avel

aleat´oria com valores xi, i = 1, 2, ...k. Considere

Ai= {ω : X (ω) = xi} ⊆ Ω. (2)

A ´algebra gerada pela partic¸˜ao {A0, A1, ..., An}, isto ´e, via uni˜oes e intersecc¸˜oes destes conjuntos,

´e chamada ´algebra gerada por X . Ela ´e a menor ´algebra que cont´em todos os conjuntos da forma

Ai= {X = xi} e ´e denotada por FX ou σ (X ). A ´algebra gerada por X representa a informac¸˜ao

que podemos extrair observando X .

Ao leitor interessado em mais detalhes sobre processos estoc´asticos (discretos ou cont´ınuos), sugerimos, entre outros, Ruffino (2009).

2.0.2 Probabilidade no espac¸o das sequˆencias

Para uma sequˆencia infinita (enumer´avel) de vari´aveis aleat´orias, podemos construir o espac¸o de probabilidade da seguinte forma. Seja Ω o conjunto de todas as sequˆencias de elementos do

espac¸o de estadosE . Um elemento ω ∈ Ω pode ent˜ao ser escrito da forma

ω = (e0, e1, e2, . . . ),

onde cada ei∈E . A func¸˜ao Xn: Ω →E , dada por

Xn(e0, e1, e2, . . . ) = en,

´e chamada de func¸˜ao sa´ıda ou avaliac¸˜ao da trajet´oria ω.

Fixado n, sejaFna fam´ılia de todas as uni˜oes de Ω da forma

{ω : X0(ω) ∈E0, X1(ω) ∈E1, , . . . Xn(ω) ∈En},

onde E0,E1, . . .En s˜ao subconjuntos do espac¸o de estados E . Neste caso, n˜ao ´e dif´ıcil verificar

que cada Fn ´e uma σ -´algebra. Al´em disso, Fn⊂Fn+1 forma uma filtrac¸˜ao natural na qual o

processo Xn ´e adaptado. Considere agoraF a fam´ılia de conjuntos definida por

F =

∞ [ n=0

Fn.

Cada elemento emF ´e um conjunto de trajet´orias para as quais um n´umero finito de entradas da

sequˆencia s˜ao restritas a pertencer a certos subconjuntos deE , e as demais infinitas entradas s˜ao

(6)

Um conjunto de F ´e chamado de cilindro. Apesar de F ser uma ´algebra, n˜ao ´e uma

σ-´algebra. Por´em, existe a menor σ -´algebraG , tal que F ⊂ G . Associado a G existe uma ´unica

medida de propabilidade µ tal que

µ (Cin) = µ{ω : X0(ω) = e0, X1(ω) = e1, . . . , Xn(ω) = en}

´e dado pelo produto das probabilidades condicionais entre os estados e0, e1, . . . , en. Cada conjunto

Cin´e chamado de cilindro b´asico deF . Para maiores detalhes ver Kemeny, Snell e Knapp (1976,

p.43).

2.1

Cadeia de Markov e matriz de transic¸˜ao

Uma cadeia de Markov, como mencionamos na introduc¸˜ao deste artigo, ´e um processo

es-toc´astico (Xn)n∈N, associado a um espac¸o de probabilidade (Ω,F ,P) que satisfaz a equac¸˜ao

(1). Daremos a seguir algumas definic¸˜oes e propriedades b´asicas das probabilidades de transic¸˜ao e suas matrizes associadas. Para maiores detalhes ver Allen (2003), Brezezniak e Zastawniak (1999) e Kemeny, Snell e Knapp (1976).

Definic¸˜ao 2 A probabilidade de transic¸˜ao em um passo, denotada por pi j(k), ´e definida como

como a seguinte probabilidade condicional:

pi j(k) = P(Xk+1= i|Xk= j).

Isto ´e, a probabilidade de estar no estado i no tempo k + 1, dado que estava no estado j no momento anterior k, para i, j = 1, 2, ...

Se a probabilidade de transic¸˜ao pi j(k) numa cadeia n˜ao depende do tempo k, dizemos que

ela ´e homogˆenea. Neste caso, usaremos a notac¸˜ao pi j. Ao longo deste artigo somente iremos

trabalhar com cadeias homogˆeneas.

Para uma cadeia de Markov com um n´umero finito de estados,E = {1,2,...,m}, associa-se

uma matriz de transic¸˜ao T , que ´e dada pelas probabilidades de transic¸˜ao, isto ´e, T = (pi j).

Definic¸˜ao 3 A probabilidade de transic¸˜ao em n-passos (n ≥ 0), denotada por p(n)i j , ´e a

probabi-lidade de transferˆencia do estado j para o estado i em n etapas de tempo discreto, isto ´e, p(n)i j = P{Xn= i|X0= j}.

Novamente, para uma quantidade de estados finitos, podemos associar uma matriz T(n), onde a

i j-´esima posic¸˜ao ´e dada por p(n)i j . Note que T(0) ´e a matriz identidade, uma vez que p(0)ii = 1 e p(0)i j = 0 quando i 6= j.

Existe uma relac¸˜ao entre as probabilidades de transic¸˜ao em n-passos, s-passos e (n − s)-passos. Essas relac¸˜oes s˜ao conhecidas como as equac¸˜oes de Chapman-Kolmogorov:

p(n)i j =

k=1

(7)

Em termos matriciais, essas equac¸˜oes podem ser escritas da forma T(n)= T(n−s)T(s).

Como T(1)= T , segue-se ent˜ao que

T(2) = T(2−1)T(1)

= T(1)T(1)

= T T

= T2.

E fazendo este processo sucessivamente tem-se que T(n) = Tn, para todo n ≥ 0. Portanto, uma

maneira f´acil de se obter as probabilidades p(n)i j ´e por meio da matriz Tn.

Al´em disso, um outro aspecto interessante em conhecer Tn, ´e que o vetor vn de distribuic¸˜ao

de probabilidades do processo, no tempo n, ´e igual ao produto matricial Tnv0, com a distribuic¸˜ao

inicial v0escrita de forma transposta.

3

Modelo probabil´ıstico e convergˆencia da sequˆencia de

pro-babilidades

Nesta sec¸˜ao, inicialmente iremos estudar convergˆencia das distribuic¸˜oes de probabilidade para

uma cadeia finita E = {1,2}, cujas probabilidades de transic¸˜ao s˜ao todas positivas. Para tal

estudo usaremos t´ecnicas de resoluc¸˜ao para recorrˆencias lineares n˜ao-homogˆeneas como aparece em Morgado e Carvalho (2013, p.73).

A seguir, apresentamos um modelo que descreve a dinˆamica de uma part´ıcula de el´etron que salta entre dois ´atomos. Neste modelo ´e dado as probabilidades de transic¸˜ao e a distribuic¸˜ao inicial da part´ıcula. Apesar de simples, ele ´e suficiente e interessante para os prop´ositos deste artigo.

Exemplo 1 Suponha que uma determinada part´ıcula de el´etron, salta em tempos discretos n = 0, 1, 2, . . . , entre dois ´atomos, que representaremos por 1 e 2, com as seguintes condic¸˜oes:

(a) Se a part´ıcula est´a no ´atomo1 em um per´ıodo de tempo n, ent˜ao com probabilidade p, ela

salta para o ´atomo2, onde 0 < p < 1;

(b) Se a part´ıcula est´a no ´atomo2 no tempo n, ent˜ao ela salta com probabilidade q para o

estado1, onde 0 < q < 1;

(c) A part´ıcula se encontra no ´atomo1 no instante inicial (n = 0).

Neste modelo acima, no contexto das cadeias de Markov, podemos interpretar os ´atomos

como estados, portanto,E = {1,2}, e a matriz de transic¸˜ao ´e dada por

T = 1 − p q

p 1 − q

 .

(8)

Na pr´oxima sec¸˜ao construiremos um processo estoc´astico Xncom estas probabilidades de transic¸˜ao

e provaremos que verifica (1).

Ainda com relac¸˜ao ao modelo acima, seja xn a probabilidade da part´ıcula estar no estado 1

no tempo n. Neste caso, temos que (1 − xn) ´e a probabilidade da part´ıcula estar no estado 2 no

tempo n. Ou seja, a distribuic¸˜ao da part´ıcula no tempo n, em notac¸˜ao vetorial, ´e dada por vn= (xn, 1 − xn),

sendo v0= (1, 0) a distribuic¸˜ao inicial, conforme escolhida no item (c) do exemplo acima.

Teorema 4 A sequˆencia xnconverge para p+qq quando n tende ao infinito.

Demonstrac¸˜ao. Denotemos por An o evento em que a part´ıcula est´a no estado 1 no tempo n e

seja Bn= Ω − An, isto ´e, o evento em que a part´ıcula est´a no estado 2 no tempo n. Sendo assim,

nas condic¸˜oes do modelo apresentado no Exemplo 1, temos

P(Bn+1|An) = p; P(An+1|Bn) = q; P(A0) = 1.

Al´em disso, como Ane Bnfazem uma partic¸˜ao em Ω segue da Proposic¸˜ao 1 que

xn+1 = P(An+1)

= P(An+1|An)P(An) + P(An+1|Bn)P(Bn)

= (1 − p)xn+ q(1 − xn)

= q + (1 − p − q)xn. (3)

Note que a igualdade (3) ´e uma recorrˆencia linear n˜ao-homogˆenea de primeira ordem, ou seja, ´e

uma recorrˆencia do tipo xn+1= g(n)xn+ h(n), sendo as func¸˜oes h(n) = 1 − p − q e f (n) = q.

Para resolver esta recorrˆencia, iremos transform´a-la em uma outra n˜ao homogˆenea da forma

xn+1= xn+ f (n), que ´e f´acil de resolvˆe-la. Com efeito, temos

x1= x0+ f (0) x2= x1+ f (1)

.. .

xn= xn−1+ f (n − 1)

Somando ambos os membros, obtemos xn= x0+

n−1

k=0

f(k).

Para isto, considere an uma soluc¸˜ao n˜ao nula da recorrˆencia xn+1 = g(n)xn. A substituic¸˜ao

xn= anyn, transforma

xn+1= g(n)xn+ h(n)

em

an+1yn+1= g(n)anyn+ h(n).

Mas, an+1= g(n)an, pois an ´e soluc¸˜ao de xn+1= g(n)xn. Portanto, a equac¸˜ao se transforma em

(9)

ou seja,

yn+1= yn+ h(n)[g(n)an]−1.

Agora, resolvendo a equac¸˜ao yn+1 = yn+ h(n)[g(n)an]−1, que est´a na forma yn+1 = yn+ f (n),

como mencionado anteriormente, basta depois tomar xn= anyn.

Voltando `a recorrˆencia dada pela equac¸˜ao (3), vamos resolvˆe-la utilizando os passos men-cionados no par´agrafo anterior. Inicialmente, devemos encontrar uma soluc¸˜ao n˜ao nula da re-corrˆencia

xn+1= (1 − p − q)xn. (4)

Temos ent˜ao que

x1= (1 − p − q)x0

x2= (1 − p − q)x1

.. .

xn= (1 − p − q)xn−1.

Multiplicando todos os termos de cada lado das igualdades, resulta em xn= (1 − p − q)nx0.

Logo, tomando a condic¸˜ao inicial x0= 1 temos que an= (1 − p − q)n ´e uma soluc¸˜ao n˜ao nula da

recorrˆencia (4). Fac¸amos a substituic¸˜ao de xn= (1 − p − q)nynem (3). Obtemos ent˜ao que

(1 − p − q)n+1yn+1= q + (1 − p − q)(1 − p − q)nyn, e, portanto,

yn+1=

q

(1 − p − q)n+1+ yn.

Como x0= (1 − p − q)0y0segue que y0= 1. Temos ent˜ao que

y1= q (1 − p − q)1+ 1 y2= q (1 − p − q)2+ y1 .. . yn= q (1 − p − q)n+ yn−1

Somando os termos de cada lado das igualdades, resulta em

yn= 1 + q (1 − p − q)+ q (1 − p − q)2+ q (1 − p − q)3+ . . . + q (1 − p − q)n.

(10)

Note que os termos do segundo membro da igualdade acima, ap´os a condic¸˜ao inicial y0= 1, ´e a

soma dos n primeiros termos de uma progress˜ao geom´etrica de raz˜ao 1−p−q1 . Logo

yn = 1 + q 1 − p − q " ( 1 1−p−q) n− 1 1 1−p−q− 1 # = 1 + q 1 − p − q   1−(1−p−q)n (1−p−q)n p+q 1−p−q   = 1 +q(1 − (1 − p − q) n) (p + q)(1 − p − q)n

Como xn= (1 − p − q)nyn, segue que

xn = (1 − p − q)n+(1 − p − q) nq(1 − (1 − p − q)n) (p + q)(1 − p − q)n = (1 − p − q)n+q(1 − (1 − p − q) n) p+ q = (1 − p − q)n+q− q(1 − p − q) n p+ q = q p+ q+ (p + q)(1 − p − q)n− q(1 − p − q)n p+ q = q p+ q+ p(1 − p − q)n p+ q .

Agora, como 0 < p < 1 e 0 < q < 1 segue que |1 − p − q|<1, e assim (1 − p − q)n→ 0 para

n→ ∞. Portanto, xn→ q p+ q, quando n → ∞. 2 Portanto, a distribuic¸˜ao da part´ıcula no tempo n, dada pelo vetor de probabilidade vn= (xn, 1 − xn)

converge para  q p+ q, p p+ q  quando n → ∞.

Uma abordagem diferente desta demonstrac¸˜ao acima, pode ser visto, por exemplo, em Silva e Rota (2016). Como a matriz de transic¸˜ao T ´e regular, por uma vers˜ao do Teorema de

Perron-Frobenius, ´e poss´ıvel mostrar que a distribuic¸˜ao dada por vn= Tnv0converge para um ´unico vetor

w, tal que Tw = w, independentemente da distribuic¸˜ao inicial v0. Al´em disso, caso o leitor tenha

curiosidade, em Brezezniak e Zastawniak (1999, p.86), tamb´em tem uma outra demonstrac¸˜ao em que n˜ao se usa soluc¸˜oes de recorrˆencias lineares n˜ao-homogˆeneas (como apresentamos neste artigo) e nem Perron-Frobenius.

O objetivo principal agora, ´e mostrar que de fato o modelo apresentado no Exemplo 1 ´e uma

(11)

Teorema 5 O modelo apresentado no Exemplo 1 ´e uma cadeia de Markov, isto ´e, verifica (1).

Demonstrac¸˜ao. Considere o espac¸o de estados E = {1,2}. Tomaremos Ω como sendo o

con-junto de todas as sequˆencias como mencionamos na Sec¸˜ao 2.0.2.

A fim de construir a probabilidade nos cilindros, tomemos ν0 como sendo alguma

proba-bilidade em E . Apenas, para simplificar, vamos escolher ν0(1) = 1 e ν0(2) = 0. A medida ν0

escolhida, corresponde a distribuic¸˜ao inicial do processo estoc´astico que iremos definir. Podemos

ent˜ao definir a probabilidade P da seguinte forma. Se ω = (e0, e1, ...) ∈ Ω, tomemos

P({ω ∈ Ω : ω0= e0}) = ν0({e0});

P({ω ∈ Ω : ωi= ei, i = 0, ..., n + 1}) = p(en+1|en)P({ω ∈ Ω : ωi= ei, i = 0, ..., n}), (5)

onde p(en+1|en) ´e a probabilidade de transic¸˜ao do estado en para en+1, podendo ser p(1|1) =

1 − p, p(1|2) = q, p(2|1) = p ou p(2|2) = 1 − q.

Notemos que P est´a definida por meio de um processo indutivo que s´o depende da distribuic¸˜ao inicial e das probabilidades de transic¸˜ao. Por exemplo, a medida para o conjunto das sequˆencias

em que restringimos os dois primeiros estados, e0 e e1, ´e dada pelo produto da probabilidade

inicial de e0pela probabilidade de transic¸˜ao de e0para e1, isto ´e

P({ω ∈ Ω : ω0= e0, ω1= e1}) = p(e1|e0)ν0({e0}).

Analogamente, para o caso em que restringimos aos estados e0, e1e e2, temos

P({ω ∈ Ω : ω0= e0, ω1= e1, ω2= e2}) = p(e2|e1)P({ω ∈ Ω : ω0= e0, ω1= e1})

= p(e2|e1)p(e1|e0)ν0({e0}).

E fazendo isso, sucessivamente, para mais estados, nota-se que de fato a f´ormula (5) s´o depende das probabilidades de transic¸˜ao e da distribuic¸˜ao inicial. Al´em disso, como

Ω = {ω ∈ Ω : ω0= 1} ∪ {ω ∈ Ω : ω0= 2},

segue que P(Ω) = ν0(Ω) = 1.

Como na Sec¸˜ao 2.0.2, considere o processo estoc´astico Xn: Ω −→ R, n ∈ N, dado por

Xn(ω) = ωn,

onde ω = (ω0, ω1, ..., ωn, ...). Primeiro vamos mostrar que as probabilidades de transic¸˜ao de Xn

s˜ao o que deveriam ser, isto ´e,

P(Xn+1= 2|Xn= 1) = p, (6)

P(Xn+1= 1|Xn= 2) = q. (7)

Da definic¸˜ao de P temos que

P(Xn+1= 2, Xn= 1) = P({ω ∈ Ω : ωn= 1, ωn+1= 2}) =

e0,...,en−1∈E P({ω ∈ Ω : ωi= ei, i = 0, ..., n − 1, ωn= 1, ωn+1= 2}) =

e0,...,en−1∈E p(2|1)P({ω ∈ Ω : ωi= ei, i = 0, ..., n − 1, ωn= 1}) = p

e0,...,en−1∈E P({ω ∈ Ω : ωi= ei, i = 0, ..., n − 1, ωn= 1}) = pP(Xn= 1). (8)

(12)

A segunda igualdade, em que aparece a soma sobre os estados, segue da Proposic¸˜ao 1 tomando uma partic¸˜ao em Ω, por meio de conjuntos formados de trajet´orias em que se fixa os primeiros n estados e0, e1, . . . , en−1.

Pela definic¸˜ao de probabilidade condicional e da igualdade (8) segue que

P(Xn+1= 2|Xn= 1) =P(Xn+1

= 2, Xn= 1)

P(Xn= 1)

= p.

Pelos mesmos argumentos segue que P(Xn+1= 1|Xn= 2) = q.

Vamos agora verificar que

P(Xn+1= en+1|X0= e0, ..., Xn= en) = P(Xn+1= en+1|Xn= en). De fato, P(Xn+1= en+1|X0= e0, ..., Xn= en) = P(X0 = e0, ..., Xn= en, Xn+1= en+1) P(X0= e0, ..., Xn= en) = P({ω ∈ Ω : ωi= ei, i = 0, ..., n + 1}) P({ω ∈ Ω : ωi= ei, i = 0, ..., n}) = p(en+1|en)P({ω ∈ Ω : ωi= ei, i = 0, ..., n}) P({ω ∈ Ω : ωi= ei, i = 0, ..., n}) = p(en+1|en).

Por outro lado, de (6) e (7) temos que

P(Xn+1= en+1|Xn= en) = p(en+1|en).

2 Apesar de trabalhosa, a demonstrac¸˜ao acima poderia ser adaptada para um processo com

mais de dois estados, desde queE seja finito. Boa parte da demonstrac¸˜ao acima foi baseada em

t´ecnicas que aparecem em Brezezniak e Zastawniak (1999, p.88).

4

Agradecimentos

Agradecemos as contribuic¸˜oes dadas pela Comiss˜ao Cient´ıfica e Editorial da revista C.Q.D.. A primeira autora agradece a FAPESP, processo 2016/21006-5, pelo suporte financeiro para desenvolver as atividades de Iniciac¸˜ao Cient´ıfica.

A segunda autora agradece a bolsa de estudo fornecida pela CAPES durante a vigˆencia do programa de p´os-graduac¸˜ao em matem´atica (PROFMAT), per´ıodo de realizac¸˜ao deste trabalho.

(13)

ALLEN, L. J. S. An introduction to stochastic processes with applications to biology. Upper Saddle River: Pearson Education Inc., 2003.

JAMES, B. R. Probabilidade: Um curso em n´ıvel intermedi´ario. 2. ed. Rio de Janeiro: IMPA, 1996.

BRZEZNIAK, Z.; ZASTAWNIAK, T. Basic stochastic processes: a course through exercises. London: Springer, 1999. (Springer undergraduate mathematics series).

KEMENY, J. G.; SNELL, J. L.; KNAPP, A. W. Denumerable Markov chains. New York: Springer-Verlag, 1976.

MORGADO, A. C.; CARVALHO, P. C. P. Matem´atica discreta. Rio de Janeiro: SBM, 2013. RUFFINO, P. R. C. Uma iniciac¸˜ao aos sistemas dinˆamicos estoc´asticos. 2. ed. Rio de Janeiro: IMPA, 2009.

SILVA, F. B.; ROTA, I. S. Convergˆencia de matrizes estoc´asticas regulares. C.Q.D. Revista Eletrˆonica Paulista de Matem´atica, Bauru, v. 8, p. 4-14, dez. 2016. Edic¸˜ao Iniciac¸˜ao Ci-ent´ıfica.

__________________________________________ Artigo recebido em jul. 2017 e aceito em set. 2017.

Referências

Documentos relacionados

Após a colheita, normalmente é necessário aguar- dar alguns dias, cerca de 10 a 15 dias dependendo da cultivar e das condições meteorológicas, para que a pele dos tubérculos continue

Em relação ao DAS 28, também não foram observadas diferenças nos níveis de CEA, CA 125, CA 19-9, CA 15-3 e presença de valores alterados, quando comparou-se pacientes em remissão

Tanto Herculano quanto Varnhagen mantinham estreitas ligações com os governantes, que invariavelmente patrocinavam seus trabalhos, mas no caso do autor

Este trabalho está voltado, especificamente, para análise de ferramentas de medição de desempenho que possam ser utilizadas por Instituições de Ensino Superior (IES) e nas

Como apontado no Relatório Anual dos Gastos Militares do SIPRI, “é improvável que o aumento das despesas militares na América do Sul resulte em uma guerra entre Estados, mas

A média de idade foi semelhante entre homens (70,3.. anos) e mulheres (70,9 anos), sem diferença estatística, o que sugere que os homens desse estudo não apresentaram menor

A intricada relação de crise que ocorre entre as duas esferas pública e privada expõe questões que de início nos pareceriam no- vas, porém, nas palavras de Arendt, não é

sample: A função sample() não é restrita à distribuição uniforme discreta, podendo ser usada para sorteios, com ou sem reposição (argumento replace, default sem reposição), com