ISSN 2316-9664 Volume 11, dez. 2017
Amanda Silvieri Leite de Oliveira
UNESP - Universidade Estadual Paulista “J´ulio de Mesquita Filho”, Bauru/SP.
amandasilvieri@hotmail.com
Tha´ıs Saes Giuliani Ribeiro UNESP - Universidade Estadual Paulista “J´ulio de Mesquita Filho”, Bauru/SP
thais saes@hotmail.com
Fabiano Borges da Silva UNESP - Universidade Estadual Paulista “J´ulio de Mesquita Filho”, Bauru/SP
fabiano@fc.unesp.br
Cadeia de Markov: modelo probabil´ıstico e
convergˆencia das distribuic¸˜oes de probabilidade
Markov chain: probabilistic model and convergence of probability distributions
Resumo
Neste artigo, mostramos como construir um processo estoc´astico de Markov e seu espac¸o de probabilidade a partir das probabi-lidades de transic¸˜ao e da distribuic¸˜ao inicial. Al´em disso, mos-tramos a convergˆencia das distribuic¸˜oes de probabilidade para uma cadeia com dois estados e probabilidades de transic¸˜ao po-sitivas, usando t´ecnicas de resoluc¸˜ao de recorrˆencias lineares n˜ao-homogˆeneas para sequˆencias.
Palavras-chave: Cadeia de Markov, processos estoc´asticos,
espac¸o de probabilidade, convergˆencia, probabilidade condicio-nal.
Abstract
In this article, we show how to construct a stochastic Markov pro-cess and its probability space from the transition probabilities and the initial distribution. In addition, we show the convergence of probability distributions to a chain with two states and positive transition probabilities, using non-homogeneous linear recurrence resolution techniques for sequences.
Keywords: Markov chain, stochastic processes, probability
space, convergence, conditional probability.
1
Introduc¸˜ao
Processos de Markov descrevem a evoluc¸˜ao de sistemas dinˆamicos aleat´orios sem mem´oria. Mais precisamente, considere um espac¸o de estados com um n´umero finito (ou enumer´avel) de
elementosE = {e1, ..., en}. Um processo estoc´astico discreto (Xn)n∈N´e uma cadeia (ou processo)
de Markov se a probabilidade condicional satisfizer
P(Xn+1= xn+1|X0= x0, ..., Xn= xn) = P(Xn+1= xn+1|Xn= xn), (1)
para todo n ≥ 1 e para toda sequˆencia x0, x1, ..., xn+1de elementos do espac¸o de estadosE . Essa
condic¸˜ao (1) significa, em linguagem natural, pensando que n indica o tempo, que o futuro do processo, uma vez conhecido o estado presente, ´e independente do passado.
As probabilidades condicionais
P(Xn+1= ei|Xn= ej),
s˜ao chamadas probabilidades de transic¸˜ao. E se para cada i, j
P(Xn+1= ei|Xn= ej) = P(X1= ei|X0= ej),
para todo natural n, a cadeia de Markov ´e dita estacion´aria e as probabilidades de transic¸˜ao, que
n˜ao mudam ao longo do tempo, s˜ao denotadas por pi j.
Um processo de Markov est´a completamente definido a partir do momento em que se espe-cifica as probabilidades de transic¸˜ao e a distribuic¸˜ao inicial de probabilidades dos estados, como pode ser visto em Brezezniak e Zastawniak (1999, p.85). Ao processo associa-se uma matriz de probabilidades de transic¸˜ao T , onde as entradas da matriz s˜ao dadas pelas probabilidades de transic¸˜ao pi j, ou seja,
T = [pi j]r×r.
As entradas da matriz Tn correspondem `a probabilidade de, saindo do estado ej, chegar-se ao
estado eidepois de n passos. Desta maneira, dada uma distribuic¸˜ao inicial, representada
matrici-almente por
v0= [v1...vr]t,
a distribuic¸˜ao do processo no tempo n ≥ 1 ´e dada por vn= Tnv0.
Neste artigo estamos interessados basicamente em dois t´opicos:
1. Estudar convergˆencia das distribuic¸˜oes de probabilidade vn, que evoluem em tempos
dis-cretos n ∈ N, para uma cadeia finita com dois estados (Teorema 4). Para isto, usaremos t´ecnicas de resoluc¸˜ao para recorrˆencias lineares n˜ao-homogˆeneas.
2. Mostrar como construir um espac¸o de probabilidade e um processo estoc´astico Xnde
Mar-kov, isto ´e, que verifica (1), a partir de um modelo em que ´e apenas dado as probabilidades de transic¸˜ao e uma distribuic¸˜ao inicial (Teorema 5).
2
Espac¸o de probabilidade e processos estoc´asticos
Nesta sec¸˜ao, daremos alguns resultados que ser˜ao necess´arios, na construc¸˜ao do processo estoc´astico a partir das probabilidades de transic¸˜ao.
O conjunto de todos os resultados poss´ıveis de um experimento ´e o espac¸o amostral Ω, e um subconjunto A ⊂ Ω deste espac¸o ´e chamado de evento aleat´orio. Os eventos Ω, /0 s˜ao chamados de evento certo e evento imposs´ıvel, respectivamente. Uma maneira de definir uma probabilidade P em um determinado evento A, ´e a maneira “frequentista” ou “estat´ıstica”. Mais precisamente,
P(A) = limn→∞1
n× {n´umero de ocorrˆencias de A em n “ensaios” independentes}.
Esta maneira, a qual n˜ao usaremos neste trabalho, n˜ao ´e ´unica (ver por exemplo James (1996)). Neste artigo, usaremos a definic¸˜ao que se deve a Kolmogorov. Para isto, iremos admitir que a
classeF dos eventos aleat´orios possu´ı as seguintes propriedades:
1. Ω ∈F ;
2. Se A ∈F , ent˜ao Ac∈F ;
3. Se A ∈F e B ∈ F , ent˜ao A ∪ B ∈ F .
Esta classe F de subconjuntos de Ω ´e chamada de ´algebra. E quando a terceira propriedade
acima vale para uni˜oes enumer´aveis, ou seja, se An∈ A para n = 1, 2, . . . , temos que
∞ [ n=1
An∈F ,
ent˜ao, neste caso, a classe F ´e chamada de σ-´algebra, e o par ordenado (Ω,F ) de espac¸o
mensur´avel. Neste espac¸o definimos uma medida de probabilidade como sendo uma func¸˜ao P : F → [0, 1], tal que
1. P( /0) = 0;
2. Se (An)n≥1 ´e uma sequˆencia de subconjuntos disjuntos, An∈F , ent˜ao
P( ∞ [ k=1 Ak) = ∞
∑
k=1 P(Ak).SendoF uma σ-´algebra, a tripla (Ω,F ,P) ´e chamada de espac¸o de probabilidade. Se B ∈ F
e P(B) > 0, a probabilidade condicional do evento A dado B ´e definida por
P(A|B) =P(A ∩ B)
P(B) , A ∈F .
Proposic¸˜ao 1 Se a sequˆencia (finita ou enumer´avel) de eventos aleat´orios A1, A2, ... formam uma
partic¸˜ao de Ω, ent˜ao para todo B ∈F temos que
P(B) = ∞
∑
i=1 P(B ∩ Ai) = ∞∑
i=1 P(Ai)P(B|Ai)2.0.1 Processo estoc´astico com tempo discreto
Vamos assumir primeiramente que Ω ´e um espac¸o amostral finito eF ´e uma σ-´algebra para
este espac¸o amostral. Uma func¸˜ao X : Ω → R ´e chamada F -mensur´avel ou vari´avel aleat´oria em
(Ω,F ) se os conjuntos
{X = xi} = {ω ∈ Ω : X(ω) = xi}, i = 1, 2, ..., k,
pertencem aF , onde {x1, x2, ..., xk} s˜ao elementos da imagem da func¸˜ao X . Isto significa que,
se temos a informac¸˜ao descrita porF , isto ´e, sabemos que o evento ocorreu, ent˜ao sabemos qual
o valor de X ocorreu. ´E f´acil ver, por exemplo, que seF = 2Ω (conjunto das partes de Ω), ent˜ao
qualquer func¸˜ao em Ω ´e uma vari´avel aleat´oria. Um processo estoc´astico ´e uma sequˆencia de
vari´aveis aleat´orias Xn, ou seja, para cada tempo n ∈ N, Xn´e uma vari´avel aleat´oria em (Ω,F ).
Para ilustrar tal conceito, considere uma sequˆencia de experimentos: o lanc¸amento de uma moeda n˜ao viciada em dois instantes, t = 1, 2. Denotemos por α e β , os resultados obtidos para cara e coroa, respectivamente. Neste caso temos que nosso espac¸o amostral ´e dado por
Ω = {ω1= (α, β ), ω2= (α, α), ω3= (β , α), ω4= (β , β )}.
Seja A o evento onde se obt´em no primeiro experimento cara, isto ´e, A = {ω1, ω2}. Al´em disso,
considere as σ -´algebrasF1= {Ø, Ω, A, AC},F2= 2Ω, e as seguintes func¸˜oes:
(a) X : Ω → R dada por
X(ω1) = X (ω2) = 15; X(ω3) = X (ω4) = 45.
(b) Y : Ω → R dada por
Y(ω1) = 17, Y(ω2) = Y (ω3) = 36, Y(ω4) = 42.
Temos ent˜ao que X ´e vari´avel aleat´oria em (Ω,F1). De fato, temos que
{X = 15} = A ∈F1;
{X = 45} = AC∈F1.
Enquanto que a func¸˜ao Y n˜ao ´eF1-mensur´avel, uma vez que, por exemplo,
{Y = 36} = {ω2, ω3} /∈F1.
Por outro lado, Y ´e F2-mensur´avel j´a que todo subconjunto de Ω pertence a F2 = 2Ω, por
definic¸˜ao.
Uma filtrac¸˜ao F ´e uma colec¸˜ao de σ -´algebras,
F = {F0,F1,F2, ...,Fn, ...,FN}, Fn⊂Fn+1,
a qual ´e usada para modelar um fluxo de informac¸˜oes do processo. Em geral, se toma F0=
um observador consegue saber mais detalhes sobre os acontecimentos dos experimentos, ou seja, partic¸˜oes “mais finas” de Ω. Na ilustrac¸˜ao acima, temos que
F = {F0,FA, 2Ω}
´e uma filtrac¸˜ao.
Dizemos que um processo estoc´astico Xn ´e adaptado a filtrac¸˜ao F, se cada Xn : Ω → R
´e vari´avel aleat´oria em (Ω,Fn), ou equivalentemente, Xn ´e Fn-mensur´avel. Por exemplo, a
sequˆencia de vari´aveis aleat´orias (X ,Y ), formada com as mesmas func¸˜oes mencionadas
anterior-mente, itens (a) e (b), ´e um processo estoc´astico adaptado a filtrac¸˜ao F = {F1,F2}.
Seja (Ω, 2Ω) um espac¸o amostral com a ´algebra de todos os eventos, e X uma vari´avel
aleat´oria com valores xi, i = 1, 2, ...k. Considere
Ai= {ω : X (ω) = xi} ⊆ Ω. (2)
A ´algebra gerada pela partic¸˜ao {A0, A1, ..., An}, isto ´e, via uni˜oes e intersecc¸˜oes destes conjuntos,
´e chamada ´algebra gerada por X . Ela ´e a menor ´algebra que cont´em todos os conjuntos da forma
Ai= {X = xi} e ´e denotada por FX ou σ (X ). A ´algebra gerada por X representa a informac¸˜ao
que podemos extrair observando X .
Ao leitor interessado em mais detalhes sobre processos estoc´asticos (discretos ou cont´ınuos), sugerimos, entre outros, Ruffino (2009).
2.0.2 Probabilidade no espac¸o das sequˆencias
Para uma sequˆencia infinita (enumer´avel) de vari´aveis aleat´orias, podemos construir o espac¸o de probabilidade da seguinte forma. Seja Ω o conjunto de todas as sequˆencias de elementos do
espac¸o de estadosE . Um elemento ω ∈ Ω pode ent˜ao ser escrito da forma
ω = (e0, e1, e2, . . . ),
onde cada ei∈E . A func¸˜ao Xn: Ω →E , dada por
Xn(e0, e1, e2, . . . ) = en,
´e chamada de func¸˜ao sa´ıda ou avaliac¸˜ao da trajet´oria ω.
Fixado n, sejaFna fam´ılia de todas as uni˜oes de Ω da forma
{ω : X0(ω) ∈E0, X1(ω) ∈E1, , . . . Xn(ω) ∈En},
onde E0,E1, . . .En s˜ao subconjuntos do espac¸o de estados E . Neste caso, n˜ao ´e dif´ıcil verificar
que cada Fn ´e uma σ -´algebra. Al´em disso, Fn⊂Fn+1 forma uma filtrac¸˜ao natural na qual o
processo Xn ´e adaptado. Considere agoraF a fam´ılia de conjuntos definida por
F =
∞ [ n=0
Fn.
Cada elemento emF ´e um conjunto de trajet´orias para as quais um n´umero finito de entradas da
sequˆencia s˜ao restritas a pertencer a certos subconjuntos deE , e as demais infinitas entradas s˜ao
Um conjunto de F ´e chamado de cilindro. Apesar de F ser uma ´algebra, n˜ao ´e uma
σ-´algebra. Por´em, existe a menor σ -´algebraG , tal que F ⊂ G . Associado a G existe uma ´unica
medida de propabilidade µ tal que
µ (Cin) = µ{ω : X0(ω) = e0, X1(ω) = e1, . . . , Xn(ω) = en}
´e dado pelo produto das probabilidades condicionais entre os estados e0, e1, . . . , en. Cada conjunto
Cin´e chamado de cilindro b´asico deF . Para maiores detalhes ver Kemeny, Snell e Knapp (1976,
p.43).
2.1
Cadeia de Markov e matriz de transic¸˜ao
Uma cadeia de Markov, como mencionamos na introduc¸˜ao deste artigo, ´e um processo
es-toc´astico (Xn)n∈N, associado a um espac¸o de probabilidade (Ω,F ,P) que satisfaz a equac¸˜ao
(1). Daremos a seguir algumas definic¸˜oes e propriedades b´asicas das probabilidades de transic¸˜ao e suas matrizes associadas. Para maiores detalhes ver Allen (2003), Brezezniak e Zastawniak (1999) e Kemeny, Snell e Knapp (1976).
Definic¸˜ao 2 A probabilidade de transic¸˜ao em um passo, denotada por pi j(k), ´e definida como
como a seguinte probabilidade condicional:
pi j(k) = P(Xk+1= i|Xk= j).
Isto ´e, a probabilidade de estar no estado i no tempo k + 1, dado que estava no estado j no momento anterior k, para i, j = 1, 2, ...
Se a probabilidade de transic¸˜ao pi j(k) numa cadeia n˜ao depende do tempo k, dizemos que
ela ´e homogˆenea. Neste caso, usaremos a notac¸˜ao pi j. Ao longo deste artigo somente iremos
trabalhar com cadeias homogˆeneas.
Para uma cadeia de Markov com um n´umero finito de estados,E = {1,2,...,m}, associa-se
uma matriz de transic¸˜ao T , que ´e dada pelas probabilidades de transic¸˜ao, isto ´e, T = (pi j).
Definic¸˜ao 3 A probabilidade de transic¸˜ao em n-passos (n ≥ 0), denotada por p(n)i j , ´e a
probabi-lidade de transferˆencia do estado j para o estado i em n etapas de tempo discreto, isto ´e, p(n)i j = P{Xn= i|X0= j}.
Novamente, para uma quantidade de estados finitos, podemos associar uma matriz T(n), onde a
i j-´esima posic¸˜ao ´e dada por p(n)i j . Note que T(0) ´e a matriz identidade, uma vez que p(0)ii = 1 e p(0)i j = 0 quando i 6= j.
Existe uma relac¸˜ao entre as probabilidades de transic¸˜ao em n-passos, s-passos e (n − s)-passos. Essas relac¸˜oes s˜ao conhecidas como as equac¸˜oes de Chapman-Kolmogorov:
p(n)i j =
∞
∑
k=1
Em termos matriciais, essas equac¸˜oes podem ser escritas da forma T(n)= T(n−s)T(s).
Como T(1)= T , segue-se ent˜ao que
T(2) = T(2−1)T(1)
= T(1)T(1)
= T T
= T2.
E fazendo este processo sucessivamente tem-se que T(n) = Tn, para todo n ≥ 0. Portanto, uma
maneira f´acil de se obter as probabilidades p(n)i j ´e por meio da matriz Tn.
Al´em disso, um outro aspecto interessante em conhecer Tn, ´e que o vetor vn de distribuic¸˜ao
de probabilidades do processo, no tempo n, ´e igual ao produto matricial Tnv0, com a distribuic¸˜ao
inicial v0escrita de forma transposta.
3
Modelo probabil´ıstico e convergˆencia da sequˆencia de
pro-babilidades
Nesta sec¸˜ao, inicialmente iremos estudar convergˆencia das distribuic¸˜oes de probabilidade para
uma cadeia finita E = {1,2}, cujas probabilidades de transic¸˜ao s˜ao todas positivas. Para tal
estudo usaremos t´ecnicas de resoluc¸˜ao para recorrˆencias lineares n˜ao-homogˆeneas como aparece em Morgado e Carvalho (2013, p.73).
A seguir, apresentamos um modelo que descreve a dinˆamica de uma part´ıcula de el´etron que salta entre dois ´atomos. Neste modelo ´e dado as probabilidades de transic¸˜ao e a distribuic¸˜ao inicial da part´ıcula. Apesar de simples, ele ´e suficiente e interessante para os prop´ositos deste artigo.
Exemplo 1 Suponha que uma determinada part´ıcula de el´etron, salta em tempos discretos n = 0, 1, 2, . . . , entre dois ´atomos, que representaremos por 1 e 2, com as seguintes condic¸˜oes:
(a) Se a part´ıcula est´a no ´atomo1 em um per´ıodo de tempo n, ent˜ao com probabilidade p, ela
salta para o ´atomo2, onde 0 < p < 1;
(b) Se a part´ıcula est´a no ´atomo2 no tempo n, ent˜ao ela salta com probabilidade q para o
estado1, onde 0 < q < 1;
(c) A part´ıcula se encontra no ´atomo1 no instante inicial (n = 0).
Neste modelo acima, no contexto das cadeias de Markov, podemos interpretar os ´atomos
como estados, portanto,E = {1,2}, e a matriz de transic¸˜ao ´e dada por
T = 1 − p q
p 1 − q
.
Na pr´oxima sec¸˜ao construiremos um processo estoc´astico Xncom estas probabilidades de transic¸˜ao
e provaremos que verifica (1).
Ainda com relac¸˜ao ao modelo acima, seja xn a probabilidade da part´ıcula estar no estado 1
no tempo n. Neste caso, temos que (1 − xn) ´e a probabilidade da part´ıcula estar no estado 2 no
tempo n. Ou seja, a distribuic¸˜ao da part´ıcula no tempo n, em notac¸˜ao vetorial, ´e dada por vn= (xn, 1 − xn),
sendo v0= (1, 0) a distribuic¸˜ao inicial, conforme escolhida no item (c) do exemplo acima.
Teorema 4 A sequˆencia xnconverge para p+qq quando n tende ao infinito.
Demonstrac¸˜ao. Denotemos por An o evento em que a part´ıcula est´a no estado 1 no tempo n e
seja Bn= Ω − An, isto ´e, o evento em que a part´ıcula est´a no estado 2 no tempo n. Sendo assim,
nas condic¸˜oes do modelo apresentado no Exemplo 1, temos
P(Bn+1|An) = p; P(An+1|Bn) = q; P(A0) = 1.
Al´em disso, como Ane Bnfazem uma partic¸˜ao em Ω segue da Proposic¸˜ao 1 que
xn+1 = P(An+1)
= P(An+1|An)P(An) + P(An+1|Bn)P(Bn)
= (1 − p)xn+ q(1 − xn)
= q + (1 − p − q)xn. (3)
Note que a igualdade (3) ´e uma recorrˆencia linear n˜ao-homogˆenea de primeira ordem, ou seja, ´e
uma recorrˆencia do tipo xn+1= g(n)xn+ h(n), sendo as func¸˜oes h(n) = 1 − p − q e f (n) = q.
Para resolver esta recorrˆencia, iremos transform´a-la em uma outra n˜ao homogˆenea da forma
xn+1= xn+ f (n), que ´e f´acil de resolvˆe-la. Com efeito, temos
x1= x0+ f (0) x2= x1+ f (1)
.. .
xn= xn−1+ f (n − 1)
Somando ambos os membros, obtemos xn= x0+
n−1
∑
k=0
f(k).
Para isto, considere an uma soluc¸˜ao n˜ao nula da recorrˆencia xn+1 = g(n)xn. A substituic¸˜ao
xn= anyn, transforma
xn+1= g(n)xn+ h(n)
em
an+1yn+1= g(n)anyn+ h(n).
Mas, an+1= g(n)an, pois an ´e soluc¸˜ao de xn+1= g(n)xn. Portanto, a equac¸˜ao se transforma em
ou seja,
yn+1= yn+ h(n)[g(n)an]−1.
Agora, resolvendo a equac¸˜ao yn+1 = yn+ h(n)[g(n)an]−1, que est´a na forma yn+1 = yn+ f (n),
como mencionado anteriormente, basta depois tomar xn= anyn.
Voltando `a recorrˆencia dada pela equac¸˜ao (3), vamos resolvˆe-la utilizando os passos men-cionados no par´agrafo anterior. Inicialmente, devemos encontrar uma soluc¸˜ao n˜ao nula da re-corrˆencia
xn+1= (1 − p − q)xn. (4)
Temos ent˜ao que
x1= (1 − p − q)x0
x2= (1 − p − q)x1
.. .
xn= (1 − p − q)xn−1.
Multiplicando todos os termos de cada lado das igualdades, resulta em xn= (1 − p − q)nx0.
Logo, tomando a condic¸˜ao inicial x0= 1 temos que an= (1 − p − q)n ´e uma soluc¸˜ao n˜ao nula da
recorrˆencia (4). Fac¸amos a substituic¸˜ao de xn= (1 − p − q)nynem (3). Obtemos ent˜ao que
(1 − p − q)n+1yn+1= q + (1 − p − q)(1 − p − q)nyn, e, portanto,
yn+1=
q
(1 − p − q)n+1+ yn.
Como x0= (1 − p − q)0y0segue que y0= 1. Temos ent˜ao que
y1= q (1 − p − q)1+ 1 y2= q (1 − p − q)2+ y1 .. . yn= q (1 − p − q)n+ yn−1
Somando os termos de cada lado das igualdades, resulta em
yn= 1 + q (1 − p − q)+ q (1 − p − q)2+ q (1 − p − q)3+ . . . + q (1 − p − q)n.
Note que os termos do segundo membro da igualdade acima, ap´os a condic¸˜ao inicial y0= 1, ´e a
soma dos n primeiros termos de uma progress˜ao geom´etrica de raz˜ao 1−p−q1 . Logo
yn = 1 + q 1 − p − q " ( 1 1−p−q) n− 1 1 1−p−q− 1 # = 1 + q 1 − p − q 1−(1−p−q)n (1−p−q)n p+q 1−p−q = 1 +q(1 − (1 − p − q) n) (p + q)(1 − p − q)n
Como xn= (1 − p − q)nyn, segue que
xn = (1 − p − q)n+(1 − p − q) nq(1 − (1 − p − q)n) (p + q)(1 − p − q)n = (1 − p − q)n+q(1 − (1 − p − q) n) p+ q = (1 − p − q)n+q− q(1 − p − q) n p+ q = q p+ q+ (p + q)(1 − p − q)n− q(1 − p − q)n p+ q = q p+ q+ p(1 − p − q)n p+ q .
Agora, como 0 < p < 1 e 0 < q < 1 segue que |1 − p − q|<1, e assim (1 − p − q)n→ 0 para
n→ ∞. Portanto, xn→ q p+ q, quando n → ∞. 2 Portanto, a distribuic¸˜ao da part´ıcula no tempo n, dada pelo vetor de probabilidade vn= (xn, 1 − xn)
converge para q p+ q, p p+ q quando n → ∞.
Uma abordagem diferente desta demonstrac¸˜ao acima, pode ser visto, por exemplo, em Silva e Rota (2016). Como a matriz de transic¸˜ao T ´e regular, por uma vers˜ao do Teorema de
Perron-Frobenius, ´e poss´ıvel mostrar que a distribuic¸˜ao dada por vn= Tnv0converge para um ´unico vetor
w, tal que Tw = w, independentemente da distribuic¸˜ao inicial v0. Al´em disso, caso o leitor tenha
curiosidade, em Brezezniak e Zastawniak (1999, p.86), tamb´em tem uma outra demonstrac¸˜ao em que n˜ao se usa soluc¸˜oes de recorrˆencias lineares n˜ao-homogˆeneas (como apresentamos neste artigo) e nem Perron-Frobenius.
O objetivo principal agora, ´e mostrar que de fato o modelo apresentado no Exemplo 1 ´e uma
Teorema 5 O modelo apresentado no Exemplo 1 ´e uma cadeia de Markov, isto ´e, verifica (1).
Demonstrac¸˜ao. Considere o espac¸o de estados E = {1,2}. Tomaremos Ω como sendo o
con-junto de todas as sequˆencias como mencionamos na Sec¸˜ao 2.0.2.
A fim de construir a probabilidade nos cilindros, tomemos ν0 como sendo alguma
proba-bilidade em E . Apenas, para simplificar, vamos escolher ν0(1) = 1 e ν0(2) = 0. A medida ν0
escolhida, corresponde a distribuic¸˜ao inicial do processo estoc´astico que iremos definir. Podemos
ent˜ao definir a probabilidade P da seguinte forma. Se ω = (e0, e1, ...) ∈ Ω, tomemos
P({ω ∈ Ω : ω0= e0}) = ν0({e0});
P({ω ∈ Ω : ωi= ei, i = 0, ..., n + 1}) = p(en+1|en)P({ω ∈ Ω : ωi= ei, i = 0, ..., n}), (5)
onde p(en+1|en) ´e a probabilidade de transic¸˜ao do estado en para en+1, podendo ser p(1|1) =
1 − p, p(1|2) = q, p(2|1) = p ou p(2|2) = 1 − q.
Notemos que P est´a definida por meio de um processo indutivo que s´o depende da distribuic¸˜ao inicial e das probabilidades de transic¸˜ao. Por exemplo, a medida para o conjunto das sequˆencias
em que restringimos os dois primeiros estados, e0 e e1, ´e dada pelo produto da probabilidade
inicial de e0pela probabilidade de transic¸˜ao de e0para e1, isto ´e
P({ω ∈ Ω : ω0= e0, ω1= e1}) = p(e1|e0)ν0({e0}).
Analogamente, para o caso em que restringimos aos estados e0, e1e e2, temos
P({ω ∈ Ω : ω0= e0, ω1= e1, ω2= e2}) = p(e2|e1)P({ω ∈ Ω : ω0= e0, ω1= e1})
= p(e2|e1)p(e1|e0)ν0({e0}).
E fazendo isso, sucessivamente, para mais estados, nota-se que de fato a f´ormula (5) s´o depende das probabilidades de transic¸˜ao e da distribuic¸˜ao inicial. Al´em disso, como
Ω = {ω ∈ Ω : ω0= 1} ∪ {ω ∈ Ω : ω0= 2},
segue que P(Ω) = ν0(Ω) = 1.
Como na Sec¸˜ao 2.0.2, considere o processo estoc´astico Xn: Ω −→ R, n ∈ N, dado por
Xn(ω) = ωn,
onde ω = (ω0, ω1, ..., ωn, ...). Primeiro vamos mostrar que as probabilidades de transic¸˜ao de Xn
s˜ao o que deveriam ser, isto ´e,
P(Xn+1= 2|Xn= 1) = p, (6)
P(Xn+1= 1|Xn= 2) = q. (7)
Da definic¸˜ao de P temos que
P(Xn+1= 2, Xn= 1) = P({ω ∈ Ω : ωn= 1, ωn+1= 2}) =
∑
e0,...,en−1∈E P({ω ∈ Ω : ωi= ei, i = 0, ..., n − 1, ωn= 1, ωn+1= 2}) =∑
e0,...,en−1∈E p(2|1)P({ω ∈ Ω : ωi= ei, i = 0, ..., n − 1, ωn= 1}) = p∑
e0,...,en−1∈E P({ω ∈ Ω : ωi= ei, i = 0, ..., n − 1, ωn= 1}) = pP(Xn= 1). (8)A segunda igualdade, em que aparece a soma sobre os estados, segue da Proposic¸˜ao 1 tomando uma partic¸˜ao em Ω, por meio de conjuntos formados de trajet´orias em que se fixa os primeiros n estados e0, e1, . . . , en−1.
Pela definic¸˜ao de probabilidade condicional e da igualdade (8) segue que
P(Xn+1= 2|Xn= 1) =P(Xn+1
= 2, Xn= 1)
P(Xn= 1)
= p.
Pelos mesmos argumentos segue que P(Xn+1= 1|Xn= 2) = q.
Vamos agora verificar que
P(Xn+1= en+1|X0= e0, ..., Xn= en) = P(Xn+1= en+1|Xn= en). De fato, P(Xn+1= en+1|X0= e0, ..., Xn= en) = P(X0 = e0, ..., Xn= en, Xn+1= en+1) P(X0= e0, ..., Xn= en) = P({ω ∈ Ω : ωi= ei, i = 0, ..., n + 1}) P({ω ∈ Ω : ωi= ei, i = 0, ..., n}) = p(en+1|en)P({ω ∈ Ω : ωi= ei, i = 0, ..., n}) P({ω ∈ Ω : ωi= ei, i = 0, ..., n}) = p(en+1|en).
Por outro lado, de (6) e (7) temos que
P(Xn+1= en+1|Xn= en) = p(en+1|en).
2 Apesar de trabalhosa, a demonstrac¸˜ao acima poderia ser adaptada para um processo com
mais de dois estados, desde queE seja finito. Boa parte da demonstrac¸˜ao acima foi baseada em
t´ecnicas que aparecem em Brezezniak e Zastawniak (1999, p.88).
4
Agradecimentos
Agradecemos as contribuic¸˜oes dadas pela Comiss˜ao Cient´ıfica e Editorial da revista C.Q.D.. A primeira autora agradece a FAPESP, processo 2016/21006-5, pelo suporte financeiro para desenvolver as atividades de Iniciac¸˜ao Cient´ıfica.
A segunda autora agradece a bolsa de estudo fornecida pela CAPES durante a vigˆencia do programa de p´os-graduac¸˜ao em matem´atica (PROFMAT), per´ıodo de realizac¸˜ao deste trabalho.
ALLEN, L. J. S. An introduction to stochastic processes with applications to biology. Upper Saddle River: Pearson Education Inc., 2003.
JAMES, B. R. Probabilidade: Um curso em n´ıvel intermedi´ario. 2. ed. Rio de Janeiro: IMPA, 1996.
BRZEZNIAK, Z.; ZASTAWNIAK, T. Basic stochastic processes: a course through exercises. London: Springer, 1999. (Springer undergraduate mathematics series).
KEMENY, J. G.; SNELL, J. L.; KNAPP, A. W. Denumerable Markov chains. New York: Springer-Verlag, 1976.
MORGADO, A. C.; CARVALHO, P. C. P. Matem´atica discreta. Rio de Janeiro: SBM, 2013. RUFFINO, P. R. C. Uma iniciac¸˜ao aos sistemas dinˆamicos estoc´asticos. 2. ed. Rio de Janeiro: IMPA, 2009.
SILVA, F. B.; ROTA, I. S. Convergˆencia de matrizes estoc´asticas regulares. C.Q.D. Revista Eletrˆonica Paulista de Matem´atica, Bauru, v. 8, p. 4-14, dez. 2016. Edic¸˜ao Iniciac¸˜ao Ci-ent´ıfica.
__________________________________________ Artigo recebido em jul. 2017 e aceito em set. 2017.