• Nenhum resultado encontrado

TÓPICOS DE ÁLGEBRA LINEAR E PROBABILIDADE

N/A
N/A
Protected

Academic year: 2019

Share "TÓPICOS DE ÁLGEBRA LINEAR E PROBABILIDADE"

Copied!
65
0
0

Texto

(1)

IV Colóquio de Matemática da Região Sul

TÓPICOS DE

ÁLGEBRA LINEAR E

PROBABILIDADE

(2)
(3)

Presidente: Hilário Alencar Vice- Presidente: Paolo Piccione Diretores:

Editor Executivo

Hilário Alencar

Assessor Editorial

Tiago Costa Rocha

Comitê Científico

Alexandre Baraviera (UFRGS, Coordenador Geral) Artur Lopes (UFRGS)

Carmen Mathias (UFSM) Daniel Gonçalves (UFSC) Elizabeth Karas (UFPR) Valeria Cavalcanti (UEM)

Membros da Comissão Organizadora (FURG)

Bárbara Denicol do Amaral Rodriguez

Cinthya Maria Schneider Meneghetti (Coordenadora Local) Cristiana Andrade Poffal

Daiane Silva de Freitas Fabíola Aiub Sperotto

Capa: Pablo Diego Regino

Projeto gráfico: Cinthya Maria Schneider Meneghetti

Distribuição e vendas

Sociedade Brasileira de Matemática

Estrada Dona Castorina, 110 Sala 109 - Jardim Botânico

Flávia Branco João Prolo Filho

Leandro Sebben Bellicanta Mário Rocha Retamoso Rodrigo Barbosa Soares João Xavier

José Espinar Marcela de Souza Walcy Santos

(4)

1ª EDIÇÃO

2016

RIO GRANDE

TÓPICOS DE

ÁLGEBRA LINEAR E

PROBABILIDADE

JAIRO MENGUE

(5)

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

Sumário

1 Matriz estocástica e vetor de probabilidade 9

2 Probabilidade invariante e Jacobiano 21

3 Entropia 27

4 Discussão relacionada ao Formalismo Termodinâmico 37

5 Otimização sobre probabilidades invariantes 45

(6)
(7)

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

Prefácio

Este texto foi preparado para utilização no IV Colóquio de Matemática da Re-gião Sul a partir do texto já utilizado no III Colóquio de Matemática da ReRe-gião Nordeste. O mesmo foi elaborado com a expectativa de poder ser lido e com-preendido por alunos em início de graduação. Com este objetivo o trabalho com probabilidades ficou limitado a conjuntos finitos e alguns conceitos usuais em Te-oria Ergódica, como probabilidade invariante e entropia, foram adaptados. Ainda assim, as ideias iniciais que aparecem no Formalismo Termodinâmico e na Oti-mização Ergódica foram preservadas, podendo ser este um primeiro contato do estudante com as mesmas, muito antes de um primeiro curso em teoria da medida. Uma das motivações para a escolha deste tópico e forma de abordagem está no meu interesse em poder apresentar a alunos e orientandos de iniciação científica parte das ideias e conceitos destas áreas.

Além da utilização no colóquio, este texto pode servir de forma complementar a professores e alunos de álgebra linear, apresentando algumas das relações desta com o estudo de probabilidades. Aparecerão com frequência no texto os conceitos de autovalor e autovetor, por exemplo.

Alguns tópicos são apresentados de forma levemente informal, dependendo do ponto de vista do leitor. Por exemplo, no capítulo 1 o leitor mais experiente poderá sentir falta de uma discussão mais profunda sobre processos estocásticos e até mesmo sobre probabilidade condicional. Ainda assim estará convidado a avaliar se este texto pode servir como introdução ao estudo das Cadeias de Markov. Cabe ressaltar ao leitor que uma discussão mais profunda dos conceitos apre-sentados requer alguns conhecimentos sobre espaços métricos e topologia, teoria da medida e análise funcional.

(8)
(9)

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

Agradecimentos

Gostaria de agradecer aos colegas do grupo de pesquisa em sistemas dinâmicos do IME-UFRGS pelas diversas discussões, informais ou em seminários, de temas que serviram de inspiração para elaboração deste texto.

Agradeço também aos alunos, professores e demais participantes do III coló-quio de matemática da região Nordeste que demonstraram interesse no assunto. Isso me motivou a propor este minicurso novamente.

(10)
(11)

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Matemática

Capítulo 1

Matriz estocástica e vetor de

probabilidade

Considere como modelo teórico uma caixa de base retangular dividida em três regiões denotados porR1,R2 eR3. Vamos supor que dentro desta caixa existem 1000 pequenas bolas em movimento forçado e que a cada minuto uma câmera fo-tografa a caixa fornecendo informações sobre as posições das bolas. Não estando interessados em entender o comportamento de cada bola, mas a distribuição de-las nas regiões R1, R2 e R3,podemos considerar um vetor com 3 coordenadas indicando a quantidade de bolas em cada região em uma dada fotografia1 . Por

exemplo, se em uma dada fotografia temosR1 com 125 bolas,R2com 250 bolas eR3com 625 bolas podemos escrever esta informação como

 

125 250 625

 .

Se também não temos interesse na quantidade total de bolas podemos dizer, a partir dos números acima, que 12,5% das bolas estão emR1, 25% das bolas estão emR2e 62,5% das bolas estão emR3ou, dividindo a quantidade de bolas de cada região pelo total de bolas da caixa, escrever esta informação como

P[0]=

 

0,125 0,250 0,625

. (1.1)

Se para cada fotografia analisada associarmos um vetor, como este último, des-crevendo a proporção de bolas de cada região em relação ao total de bolas, pode-mos observar que todos estes vetores possuem três coordenadas não negativas cuja soma resulta em 1.

1vamos desconsiderar neste modelo teórico os problemas que podem ser causados por fronteiras

(12)

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Grande

-RS

-FURG

-IV

Colóquio

de

Definição 1.1. Dizemos queP ∈Rné um vetor de probabilidade se suas

coorde-nadasp1, ..., pnsatisfazem:

a)pi≥0, i∈ {1, ..., n}

b)p1+p2+...+pn= 1.

Suponhamos agora que para este modelo, independente da informação sobre as fotografias retiradas a mais de 1 minuto e da quantidade de fotografias já reti-radas, a proporção de bolas que migram para a regiãoRisaindo da regiãoRj, ao

compararmos fotografias consecutivas, seja estimada emaij, onde

 

a11 a12 a13

a21 a22 a23

a31 a32 a33

=

 

0,5 0,3 0,1 0,4 0,4 0,6 0,1 0,3 0,3

. (1.2)

Assim, a partir da segunda coluna desta matriz, temos como previsão: -30%das bolas emR2na fotografia atual estarão emR1na próxima fotografia. -40%das bolas emR2na fotografia atual estarão emR2na próxima fotografia. -30%das bolas emR2na fotografia atual estarão emR3na próxima fotografia.

As entradas da matriz dada em (1.2) são não negativas e a soma dos elementos de cada coluna resulta em 1. Assim, as colunas da matriz são vetores de probabili-dade.

Definição 1.2. Dizemos que uma matriz quadradaAn×ncom entradas{aij}1≤i,jn

é coluna estocástica se satisfaz:

a)aij ≥0,para quaisquer i, j∈ {1, ..., n}

b)a1j +...+anj = 1 para qualquerj∈ {1, ..., n}.

Se para uma dada bola, denotarmos porXno número em{1,2,3}que indica

a região onde se localiza esta bola nan-ésima fotografia, a informação acima pode ser descrita como uma probabilidade condicional2:

P r(Xn+1=i|Xn=j) =aij.

Assumimos que a probabilidade condicional satisfaz a relação (Regra de Bayes)

P r(Xn+1 =i) = 3

X

j=1

P r(Xn+1=i|Xn=j)P r(Xn=j).

Problema: Estando com o vetor dado em (1.1) para a fotografia atual, qual previsão podemos fazer para o vetor associado a fotografia seguinte?

2Estamos assumindo que para quaisquernes

0, ..., sn−1fixados,

P r(Xn+1=i|Xn=j, Xn−1=sn−1, ..., X1=s1, X0 =s0)

(13)

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

Solução: Supomos dadoP[0], que indica a distribuição das bolas em tempo 0

(fotografia atual) e buscamos uma previsão deP[1], que indica a distribuição das bolas em tempo 1 (fotografia seguinte). Qual a probabilidade de uma dada bola estar emR1 em tempo1?

P r(X1 = 1) = 3

X

i=1

P r(X1 = 1|X0=i)P r(X0 =i)

= (0,5)(0,125) + (0,3)(0,25) + (0,1)(0,625) = 0,2.

De forma análoga temos

P r(X1 = 2) = 3

X

i=1

P r(X1 = 2|X0=i)P r(X0 =i)

= (0,4)(0,125) + (0,4)(0,25) + (0,6)(0,625) = 0,525.

e

P r(X1 = 3) = 3

X

i=1

P r(X1 = 3|X0=i)P r(X0 =i)

= (0,1)(0,125) + (0,3)(0,25) + (0,3)(0,625) = 0,275.

Concluímos que nossa previsão é dada por

P[1]=

 

0,2 0,525 0,275

 .

Observe que as contas do problema acima podem ser resumidas na forma:

P[1]=

 

0,2 0,525 0,275

  =   

0,5 0,3 0,1 0,4 0,4 0,6 0,1 0,3 0,3

     

0,125 0,250 0,625

=AP[0]. (1.3)

Para a previsão deP1podemos, como visto acima, calcular o produto dado em

(1.3). Note que neste exemplo o produto de uma matriz coluna estocástica por um vetor de probabilidade resultou em um novo vetor de probabilidade.

Proposição 1.3. SeAn×né uma matriz coluna estocástica eP ∈ Rn é um vetor

de probabilidade, então(AP)é um vetor de probabilidade.

Demonstração: EscrevendoQ=AP ondeA= (aij)1≤i,jn,P = (pi)1≤in

eQ= (qi)1≤intemos

Q=       q1 q2 ... qn       =      

a11p1+a12p2+...+a1npn

a21p1+a22p2+...+a2npn

...

an1p1+an2p2+...+annpn

(14)

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Grande

-RS

-FURG

-IV

Colóquio

de

o que resumidamente pode ser escrito como

qi= n

X

k=1

aikpk, i∈ {1, ..., n}.

Devemos provar queQé um vetor de probabilidade. ComoAé coluna estocástica e P é um vetor de probabilidade temos que aik ≥ 0 e pk ≥ 0 para quaisquer

i, k ∈ {1, ..., n}. Portantoqi= n

X

k=1

aikpk≥0 para todo i ∈ {1, ..., n}. Além

disso, comoAé coluna estocástica, sabemos quePn

i=1aik = 1, k∈ {1, ..., n}e

comoP é um vetor de probabilidade,Pn

k=1pk= 1. Assim

q1+...+qn= n

X

i=1

qi = n X i=1 n X k=1

aikpk

! = n X k=1 n X i=1

aikpk

= n X k=1 pk n X i=1 aik ! = n X k=1

pk= 1.

Voltando ao exemplo das bolas, dada a previsão de um vetor

P[n]=

 

P r(Xn= 1)

P r(Xn= 2)

P r(Xn= 3)

  =    

p[1n] p[2n] p[3n]

  ,

qual será o vetorP[n+1]previsto?

Solução: EscrevendoP r(Xn+1 =i|Xn =j) = aij onde os númerosaij são

dados em (1.2), temos

P[n+1]=

      

P r(Xn+1 = 1)

P r(Xn+1 = 2)

P r(Xn+1 = 3)

       =        P3

j=1P r(Xn+1 = 1|Xn=j)P r(Xn=j)

P3

j=1P r(Xn+1 = 2|Xn=j)P r(Xn=j)

P3

j=1P r(Xn+1 = 3|Xn=j)P r(Xn=j)

       =    

a11p[1n]+a12p2[n]+a13p[3n]

a21p[1n]+a22p2[n]+a23p[3n]

a31p[1n]+a32p2[n]+a33p[3n]

   =   

a11 a12 a13

a21 a22 a23

a31 a32 a33

      

p[1n] p[2n] p[3n]

 

=AP

[n].

Aplicando-se um argumento de indução matemática, podemos concluir que dados o vetorP[0]e a matrizAem (1.2) e (1.1), respectivamente, a estimativa para

o vetor de probabilidade associado a fotografia em tempomseráP[m]=AmP[0], onde

Am=A·A· · ·A

| {z }

m vezes

(15)

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Matemática

Com base nesta igualdade, dada uma matriz coluna estocástica An×n e um

vetor de probabilidadeP[0]emRn, podemos tentar entender o comportamento do

vetorP[m] = AmP[0] "a longo prazo". Neste sentido, buscamos entender se por exemplo as coordenadas deP[m]se aproximam das coordenadas de algum vetorP¯

quandom→+∞.

Antes de prosseguirmos com resultados gerais, vamos analisar dois exemplos.

Exemplo 1.4. Considere a matriz coluna estocástica

A= 1/3 1/4 2/3 3/4

!

.

Os autovalores deAsãoλ1= 1eλ2= 1/12, podendo ser verificado diretamente que

1/3 1/4 2/3 3/4

!

3 8

!

= 3 8

!

e

1/3 1/4 2/3 3/4

! −1

1

!

= 1 12

−1 1

!

.

Note que

¯

P = 3/11 8/11

!

é um vetor de probabilidade que também é autovetor associado ao autovalorλ1 =

1. Vamos denotar porv = −1 1

!

, o autovetor associado ao autovalor λ2, que estamos considerando. Nenhum múltiplo devé vetor de probabilidade.

Dado um vetor de probabilidade arbitrárioP = p 1−p

!

onde0 ≤ p ≤ 1, podemos escrever

P = p 1−p

!

= 3/11 8/11

!

+ (3/11−p) −1 1

!

= ¯P+ (3/11−p)v.

Assim

AP =A( ¯P+ (3/11−p)v) =AP¯+ (3/11−p)Av= ¯P +(3/11−p) 12 v,

A2P =A(AP) =A( ¯P+(3/11−p)

12 v) =AP¯+

(3/11−p)

12 Av= ¯P+

(3/11−p) (12)2 v e em geral, pode ser demonstrado com um argumento de indução matemática que

(16)

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Quandom→+∞, temos (3/11−p)

(12)m →0e por consequência

lim

m→+∞A

mP = ¯P .

Concluímos que para qualquer vetor de probabilidadeP, os vetoresAmPse apro-ximam do vetor de probabilidadeP¯, ondeP¯satisfazAP¯ = ¯P. Como ilustração

deste fato, note que seP = 1 0

!

, entãoAmP corresponde a primeira coluna de

Am, enquanto paraP = 0 1

!

, AmPcorresponde a segunda coluna deAm. Por-tanto ambas as colunas deAmdevem convergir paraP¯quandom +. Isso

está de acordo com o os dados abaixo:

P ≈ 0,27273

0,72727

!

, A≈ 0,33333 0,25

0,66666 0,75

!

, A2≈ 0,27778 0,27083

0,72222 0,72917

!

A3≈ 0,27315 0,27257

0,72685 0,72743

!

, A4 ≈ 0,27276 0,27271

0,72724 0,72729

!

.

Exemplo 1.5. Dados

A= 0 1 1 0

!

, P[0] = a 1−a

!

e P[1]= 1−a

a

!

,

temos que

P[1] =AP =A3P =A5P =A7P... e P[0] =P =A2P =A4P =A6P...

PortantoAmP não converge.

É possível3 obtermos resultados como os do primeiro exemplo supondo que

todas as entradas deAsão positivas (estritamente maiores que zero).

Convenção: Dizemos que uma matriz é positiva se todas as suas entradas são positivas.

Lema 1.6. SeAn×né uma matriz coluna estocástica, entãoλ= 1é um autovalor

deA.

Demonstração: Seja1o vetor com todas as coordenadas iguais a1. A matriz

AT é “linha estocástica”, sendo fácil verificar que AT1 = 1. Concluímos que

λ= 1é autovalor deAT,portanto é um autovalor deA.

3Seria possível obtermos resultados positivos com hipóteses mais fracas, como supor que alguma potência deApossui todas as entradas positivas, mas neste texto de caráter introdutório vamos

(17)

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

Vamos generalizar alguns fatos que apareceram no primeiro exemplo acima, para uma matrizAcoluna estocástica positiva. Antes de mostrarmos queApossui um autovetor de probabilidade associado ao autovalor1vamos analisar um pouco mais a matrizAT.

Lema 1.7. SejaAn×numa matriz coluna estocástica positiva ev ∈Rnum vetor

com entradas não negativas. Então(AT)mv é convergente e o vetor limite terá todas as coordenadas iguais.

Demonstração: Se n = 1 o resultado é imediato, portanto podemos supor

n ≥ 2. Escrevemos A = (aij) ondeaij > 0 para quaisqueri, j ∈ {1, ..., n} e

P

kakj = 1para qualquerj ∈ {1, ..., n}. Sejaα a menor entrada da matrizA.

Note que 0 < αn1 ≤ 12. Denotamos por|x|max e |x|min a maior e menor

entrada de um vetorx, respectivamente. Sejav um vetor com coordenadas não

negativasv1, ..., vn. Suponha que|v|min = vj. Então a i−esima coordenada de

ATvsatisfaz

(ATv)i= n

X

k=1

akivk=ajivj+

X

k6=j

akivkajivj +

X

k6=j

aki|v|max

=ajivj+ (1−aji)|v|max =|v|max+aji(|v|min− |v|max)

≤ |v|max+α(|v|min− |v|max).

Portanto

|ATv|max≤ |v|max+α(|v|min− |v|max). (1.4)

Da mesma forma, suponha que|v|max=vl. Então ai−esima coordenada deATv

satisfaz

(ATv)i = n

X

k=1

akivkalivl+ (1−ali)|v|min=|v|min+ali(|v|max− |v|min)

≥ |v|min+α(|v|max− |v|min).

Portanto

|ATv|min≥ |v|min+α(|v|max− |v|min). (1.5)

Concluímos que para todo vetorvcom coordenadas não negativas,

|ATv|max− |ATv|min≤(1−2α)(|v|max− |v|min). (1.6)

Além disso, se

|(AT)m−1v|max− |(AT)m−1v|min≤(1−2α)m−1(|v|max− |v|min)

então, aplicando a desigualdade (1.6) para o vetor(AT)m−1v,

(18)

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Grande

-RS

-FURG

-IV

Colóquio

de

≤(1−2α)h|(AT)m−1v|max− |(AT)m−1v|min

i

≤(1−2α)m(|v|max− |v|min).

Assim, com um argumento de indução matemática, concluímos que para m = 1,2,3, ...

|(AT)mv|max− |(AT)mv|min ≤(1−2α)m(|v|max− |v|min).

Como0< α≤ 12,

lim

m→+∞

|(AT)mv|max− |(AT)mv|min

= 0.

Além disso, por (1.4) e (1.5),|(AT)mv|

maxé decrescente emmenquanto|(AT)mv|min

é crescente emm. Portanto quandom → +∞,(AT)mvconverge para um vetor

constante.

Teorema 1.8. SejaAn×numa matriz coluna estocástica e positiva. Então existe

um único vetor de probabilidade P¯ satisfazendo AP¯ = ¯P. Além disso, para

qualquer vetor de probabilidadeP,limm→+∞AmP = ¯P.

Demonstração: Escrevemos A = (aij)onde aij > 0 para quaisqueri, j

{1, ..., n}ePkakj = 1para qualquerj∈ {1, ..., n}. Denotamos pore1, e2, ..., en

os vetores que formam a base canônica do espaçoRn. Aplicando-se o lema anterior

concluímos que existem os limites

ψ1= lim

m→+∞(A

T)me

1, ..., ψn= lim m→+∞(A

T)me n,

onde os vetoresψisão constantes. Denotamos porpio valor que aparece em todas

as entradas deψi,i= 1,2, ..., n. Ou seja

ψ1=

   p1 ... p1  

, ψ2 =

   p2 ... p2  

, . . . , ψn=

   pn ... pn   . Seja ¯ P =    p1 ... pn   .

Afirmamos queP¯ é um vetor de probabilidade. De fato, como as entradas de

Ae deei são não negativas, obtemos que as entradas deψi são não negativas, ou

sejapi ≥0. Além disso, para mostrarmos quep1+...+pn= 1, basta mostrarmos

queψ1+...+ψncoincide com o vetor constante

(19)

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Matemática

ComoAT1=1, obtemos que

ψ1+...+ψn= n

X

i=1

ψi= n

X

i=1

lim

m→+∞(A

T)me i

= lim

m→+∞(A

T)mXn i=1

ei = lim m→+∞(A

T)m1= lim

m→+∞1=1,

concluindo a prova da afirmação.

Afirmamos agora que para qualquer vetor de probabilidadeP =

      q1 q2 ... qn       , lim

m→+∞A

mP = ¯P =

      p1 p2 ... pn       .

De fato, para cadaj∈ {1, ..., n}temos que aj−ésima coordenada delimm→+∞AmP

satisfaz:

hej, lim m→+∞A

mPi= lim

m→+∞hej, A

mPi= lim m→+∞h(A

T)me

j, Pi=h lim m→+∞(A

T)me j, Pi

=hψj, Pi=

*   pj ... pj   ,    q1 ... qn    +

=pj(q1+...+qn) =pj,

provando a afirmação.

Para mostrarmos queAP¯ = ¯P basta observarmos que

¯

P = lim

m→+∞A

m+1P¯ = lim

m→+∞AA

mP¯ =A lim m→+∞A

mP¯ =AP .¯

Por fim, se um vetor de probabilidade Qsatisfaz AQ = Q, entãoAmQ =

Q, m= 1,2,3, ...Portanto

Q= lim

m→+∞A

mQ= ¯P .

Isso garante queP¯é o único vetor de probabilidade satisfazendoAP¯ = ¯Pe conclui

a demonstração.

Definição 1.9. Dada uma matrizA coluna estocástica positiva, o vetor de pro-babilidade P¯ satisfazendo AP¯ = ¯P é chamado vetor estacionário associado a

(20)

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Note que se A é positiva então para estimativas de “longo prazo” do vetor Pm = AmP, o vetor inicial P não é de fato relevante, ou seja quandom → ∞,

AmP converge ao vetor estacionário P¯ independente do vetor de probabilidade

inicialP.

Corolário 1.10. O vetor estacionário associado a uma matriz coluna estocástica positiva é também positivo.

Demonstração: EscrevemosA= (aij)e denotamos porp1, ..., pnas

coorde-nadas deP¯. Lembramos que as entradas deAsão positivas e as coordenadas deP¯

são maiores ou iguais a zero. Suponhamos por absurdo que alguma coordenadapk

deP¯ seja nula. ComoP

iakipi = pk = 0, concluímos que todas as coordenadas

deP¯são nulas. Masp1+...+pk= 1, garantindo uma contradição.

Exemplo 1.11. Considere a matriz

A=

 

0,5 0,3 0,1 0,4 0,4 0,6 0,1 0,3 0,3

 

dada em (1.2). Para determinarmos um autovetorxassociado ao autovalorλ= 1

resolvemos a equaçãoAx=xou, equivalentemente, a equação linear homogênea

(AI)x= 0. Uma solução para esta equação é dada por

x=    12 17 9   .

Portanto o vetor estacionário associado a matrizAé

¯

P =

 

12/38 17/38 9/38

  ≈   

0,3158 0,4474 0,2368

 .

Dado

P[0] =

 

0,125 0,250 0,625

 ,

pelo que vimos acima, os vetoresP[n]=AnP[0], n= 1,2,3, ...aproximam-se de

¯

P. Mais precisamente, lim

n→∞P

[n]= ¯P. Isso está de acordo com os dados abaixo:

P[1] =AP[0] =

 

0,200 0,525 0,275

, P[2] =AP[1] =

 

0,285 0,455 0,260

(21)

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

P[3] =AP[2] =

 

0,305 0,452 0,243

, P[4] =AP[3]=

 

0,3124 0,4486 0,2390

 ,

P[5] =AP[4] ≈ 

 

0,3147 0,4478 0,2375

, P[6]=AP[5]≈

 

0,3154 0,4475 0,2371

 .

(22)

1.

MA

TRIZ

EST

OCÁSTICA

E

VET

OR

DE

PR

OB

ABILID

(23)

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

Capítulo 2

Probabilidade invariante e

Jacobiano

Nesta seção vamos considerar o conjunto

X={1, ..., n} × {1, ..., n}={(i, j)|1≤ine 1≤jn}.

Uma probabilidade sobreXserá uma lista de números não negativosπ = (πij)1≤i,jn

satisfazendoP

i,jπij = 1. O númeroπij é o peso associado ao ponto(i, j)emX.

Escrevemos π((i, j)) = πij. A probabilidade de um conjunto AX será por

definição π(A) = P(i,j)Aπij. Convenientemente uma probabilidade sobre X

poderá ser descrita por uma matriz do tipon×ncom entradas não negativas cuja

soma resulta em1. Denotamos porΠ(X)o conjunto das probabilidades sobreX.

Exemplo 2.1. Paran= 3,

X ={(1,1),(1,2),(1,3),(2,1),(2,2),(2,3),(3,1),(3,2),(3,3)}.

A matriz

π =

 

π11 π12 π13

π21 π22 π23

π31 π32 π33

=

 

0 0,1 0 0,2 0 0,2 0,1 0,3 0,1

 

representa uma probabilidade sobreX.

Dizemos que uma probabilidade π é positiva se a matriz que representa π é positiva, ou seja seπ((i, j))>0para qualquer ponto(i, j)∈X.

Fixadok∈ {1, ..., n}definimos

, k] ={(i, k)|i∈ {1, ..., n}}={(1, k),(2, k), ...,(n, k)}

e

[k,·] ={(k, j)|j∈ {1, ..., n}}={(k,1),(k,2), ...,(k, n)}.

(24)

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Note que em geralπ([·, k])6=π([k,·]). Por exemplo, seX={1,2} × {1,2}e

π= π11 π12

π21 π22

!

= 1/2 1/2 0 0

!

então

π([·,1]) =π11+π21= 1/2 + 0 = 1/2. enquanto

π([1,·]) =π11+π12= 1/2 + 1/2 = 1.

Definição 2.2. Uma probabilidadeπ ∈ Π(X)será chamada invariante1 se para

todok∈ {1, ..., n}:

n

X

i=1

πik = n

X

j=1

πkj.

O conjunto das probabilidades invariantes será denotado porΠ(X, σ).

Exemplo 2.3. SeX={1,2} × {1,2}então a probabilidade

π= π11 π12

π21 π22

!

= 1/8 2/8 2/8 3/8

!

é invariante. De fato, a soma dos elementos daprimeira linhada matriz coincide

com a soma dos elementos daprimeira colunae a soma dos elementos dasegunda linhada matriz coincide com a soma dos elementos dasegunda coluna.

Seπé uma probabilidade invariante então para todok∈ {1, ..., n}temos

π([·, k]) =

n

X

i=1

πik = n

X

j=1

πkj =π([k,·]).

Note que a matriz que representaπ no exemplo anterior é simétrica. Se a matriz

que representa a probabilidadeπé simétrica, entãoπ será invariante. A recíproca desta afirmação não é verdadeira.

Exemplo 2.4. SeX={1,2,3} × {1,2,3}então a probabilidade

π =

 

0.5 0.1 0.1 0.2 0 0

0 0.1 0

 

é invariante, mas a matriz que representaπnão é simétrica.

(25)

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Matemática

Definição 2.5. O Jacobiano de uma probabilidade invarianteπ ∈ Π(X, σ) é a matriz = (Jijπ), onde

Jijπ =

 

π((i,j))

π([·,j]) =

πij

Pn l=1πlj

seπ([·, j])>0 1/n seπ([·, j]) = 0 .

Exemplo 2.6. ParaX={1,2,3} × {1,2,3}. Temos:

seπ =

 

0.5 0.1 0.1 0.2 0 0

0 0.1 0

 então = 

 

5/7 1/2 1 2/7 0 0 0 1/2 0

 ,

seπ =

 

0.2 0.2 0.1 0.1 0.1 0.1 0.2 0 0

 então = 

 

2/5 2/3 1/2 1/5 1/3 1/2 2/5 0 0

 ,

se π=

 

0.3 0.1 0 0.1 0.5 0 0 0 0

 então = 

 

3/4 1/6 1/3 1/4 5/6 1/3 0 0 1/3

 .

O que será de interesse neste texto é o valor que assume nos pontos onde πij >0. Nos demais pontos, o valor depoderia ser definido de forma arbitrária.

A nossa escolha se justifica pelo próximo lema.

Lema 2.7. Dada uma probabilidade π ∈ Π(X, σ), seu Jacobiano será uma matriz coluna estocástica. Seπé uma probabilidade positiva, seu Jacobiano será uma matriz coluna estocástica positiva.

Demonstração:Iniciamos supondo queπé uma probabilidade positiva. Neste caso

ij >0para quaisqueri, j∈ {1, ..., n}. Além disso, para cadaj, a soma das

entradas da colunajda matrizsatisfaz

n

X

i=1

Jijπ =

n

X

i=1

πij

Pn l=1πlj

= 1.

Concluímos que é uma matriz coluna estocástica positiva.

Se π não é positiva, por definição teremos Jijπ ≥ 0 para quaisquer i, j ∈ {1, ..., n}. Além disso, se π([·, j]) > 0, podemos repetir as contas acima e con-cluir que a soma dos elementos da colunajde resulta em 1. Caso contrário (se

π([·, j]) = 0) escrevemos

n

X

i=1

Jijπ =

n

X

i=1

1

n = 1.

Em qualquer caso concluímos que é uma matriz coluna estocástica.

Dada uma matriz A = (aij) coluna estocástica e positiva, vimos na seção

anterior que existe um único vetor de probabilidade P¯ tal que AP¯ = ¯P (vetor

(26)

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Grande

-RS

-FURG

-IV

Colóquio

de

Definição 2.8. Dada uma matrizA = (aij)1≤i,jncoluna estocástica e positiva

com vetor estacionárioP¯ = (pj)1jn, definimos a partir deAuma probabilidade

π ∈ Π(X)por πij = aijpj que será chamada auto-probabilidadeassociada a

matrizA.

Abaixo vamos mostrar que a auto-probabilidadeπde fato é uma probabilidade. Dependendo do contexto, poderíamos chamá-la de medida de Gibbs, equilíbrio ou de Markov. Note que π = AD onde D é a matriz diagonal determinada por

p1, ..., pn. Paran= 3, por exemplo

 

π11 π12 π13

π21 π22 π23

π31 π32 π33

  =   

a11p1 a12p2 a13p3

a21p1 a22p2 a23p3

a31p1 a32p2 a33p3

   =   

a11 a12 a13

a21 a22 a23

a31 a32 a33

     

p1 0 0

0 p2 0

0 0 p3

 .

Proposição 2.9. SeA é uma matriz coluna estocástica e positiva, então a auto-probabilidade associada é uma auto-probabilidade invariante e positiva.

Demonstração: Denotamos por(aij)as entradas da matrizAe porp1, ..., pn

as coordenadas do vetor estacionárioP¯. Como

X

j

X

i

πij =

X

j

X

i

aijpj =

X

j

pj

X

i

aij =

X

j

pj = 1,

concluímos queπ é uma probabilidade. Para provarmos queπ é positiva, obser-vamos queAé uma matriz coluna estocástica positiva eP¯é um vetor de

probabi-lidade positivo (corolário1.10). Segue queπij =aijpj é positivo para quaisquer

i, j.

Para cadak∈ {1, ..., n}fixado, comoAP¯ = ¯P, temos que

pk=ak1p1+ak2p2+...+aknpn=

X

j

akjpj.

Então

π([·, k]) =X

i

πik=

X

i

aikpk=pk

X

i

aik=pk=

X

j

akjpj =

X

j

πkj =π([k,·]),

portantoπé invariante.

(27)

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

Demonstração: Comoπij =aijpj é positivo para quaisqueri, j, pela

defini-ção de Jacobiano temos

Jijπ = Pπij

lπlj

= Paijpj

laljpj

= aijpj

pjPlalj

= aijpj

pj

=aij.

Pelo que vimos até aqui, dada uma matrizAcoluna estocástica positiva, pode-mos associar a ela uma probabilidade invariante e positivaπ(auto-probabilidade). Por outro lado para esta probabilidadeπ podemos associar uma matriz coluna

es-tocástica positiva que resultará na própria matrizA.

A−→π −→ =A.

No que segue vamos analisar se vale um argumento deste tipo partindo-se de uma probabilidade invariante e positivaπ. Neste sentido, partindo-se de uma pro-babilidade invariante e positivaπpodemos construir uma matriz coluna estocástica positiva. Será que a auto-probabilidade deJπ coincide comπ?

π−→ −→(?)

Proposição 2.11. Se π é uma probabilidade invariante e positiva, então π é a auto-probabilidade de.

Demonstração: DenotamosP

lπljporqj. Note queq1+...+qn= 1. Como

πé positiva, pela definição de Jacobiano obtemos que ij =

πij

P

lπlj

= πij

qj . Ou seja

Jijπqj =πij. (2.1)

Então para concluirmos queπé a auto-probabilidade de, basta mostrarmos que

o vetor estacionárioP¯que satisfazP¯=JπP¯tem coordenadasq

1, ..., qn. Assim a

prova estará completa se mostrarmos queqk =PjJkjπqj para todok. Comoπ é

uma probabilidade invariante

X

j

Jkjπqj

(2.1)

= X

j

πkj πé invariante=

X

i

πik=qk,

concluindo a demonstração.

Resumimos estes resultados abaixo:

Teorema 2.12.

-i) Dada uma matriz coluna estocástica e positivaA, sua auto-probabilidadeπ é uma probabilidade invariante e positiva. Além disso =A.

ii) Dada uma probabilidade invariante e positivaπ, seu Jacobianoé uma matriz

(28)

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Grande

-RS

-FURG

-IV

Colóquio

de

Comentários:A definição de probabilidade invariante apresentada neste capí-tulo é uma adaptação do conceito de probabilidade invariante em Sistemas Dinâmi-cos, [13], [16], [18], não correspondendo na íntegra a definição usual. No entanto ela está ligada ao conceito de probabilidade holonômica em sistemas de funções iteradas, [3], [11], [14]. Dados conjuntosY = {1, ..., n} eZ = {1, ..., m}, um sistema de funções iteradas (IFS) consiste em uma família de aplicações{τi:Z

Z|iY}. Dado um IFS, dizemos que uma probabilidadeπ= (πij)sobreY ×Z

é holonômica se para qualquer funçãoh:Z →R X

iY

X

jZ

h(τi(j))πij =

X

iY

X

jZ

h(j)πij.

QuandoY =Z ={1, ..., n}e o IFS satisfazτi(j) =ipara quaisqueriY,jZ

temos queπserá holonômica se para qualquer funçãoh:{1, ..., n} →R X

1≤in

X

1≤jn

h(i)πij =

X

1≤in

X

1≤jn

h(j)πij.

Afirmamos que isso equivale a dizer que para todok∈ {1, ..., n},

X

1≤jn

πkj =

X

1≤in

πik.

De fato, fixadosk ∈ {1, ..., n}e a funçãoδk satisfazendoδk(j) = 1sej = ke

δk(j) = 0sej6=k, seπé holonômica então

X

1≤in

X

1≤jn

δk(i)πij =

X

1≤in

X

1≤jn

δk(j)πij

logo

X

1≤jn

πkj =

X

1≤in

πik.

Por outro lado, seπsatisfaz

X

1≤jn

πkj =

X

1≤in

πik,

então para qualquer funçãoh:{1, ..., n} →Rtemos

X

1≤in

X

1≤jn

h(i)πij =

X

1≤in

h(i) X

1≤jn

πij

= X

1≤in

h(i) X

1≤jn

πji

= X

1≤in

X

1≤jn

h(i)πji =

X

1≤in

X

1≤jn

h(j)πij,

(29)

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Matemática

Capítulo 3

Entropia

Nesta seção continuamos considerando o espaçoX={1, ..., n} × {1, ..., n}. Definição 3.1. Dadas uma matriz A = (aij)1≤i,jn e uma probabilidade π =

(πij)emΠ(X), a média deAem relação aπé dada por

hA, πi=X

i,j

aijπij.

Note quehA, πirepresenta uma média ponderada das entradas deAcom pesos dados pela probabilidadeπ.

Definição 3.2. Seπ = (πij)é uma probabilidade invariante, definimos sua

entro-pia1por

H(π) =−X

i,j

log(Jijπ)πij.

Acima estamos considerando o logaritmo naturallog(x) = ln(x). Note que se

Jijπ = 0entãoπij = 0. Sempre que isso ocorrer assumimos que0 log(0) = 0, ou

seja, desconsideramos esta parcela na soma acima. De fato, como já comentamos na seção anterior, as entradas deque serão de interesse neste texto são aquelas

ondeπij >0e somente nestes casos teremos parcelas consideradas na soma acima.

Exemplo 3.3. Seπij = n12 para quaisqueri, j, então

Jijπ = Pπij

sπsj

= 1/n

2

1/n =

1

n.

Segue que

H(π) =−X

i,j

log(1/n) 1

n2 =−n

2log(1/n) 1

n2 =−log(1/n) = log(n).

1Esta definição não coincide com a definição de entropia de Shannon para probabilidades em conjuntos finitos. Também não coincide exatamente com a entropia de Kolmogorov-Sinai para pro-babilidades invariantes em sistemas dinâmicos. É equivalente as definições apresentadas em [11] e [14] para probabilidades holonômicas.

(30)

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Exemplo 3.4. Sejaπ= (πij), ondeπ11= 1(então todas as demais entradas deπ são nulas, poisπé uma probabilidade). πé invariante, poisπ([i,·]) = π([·, i]) = 0, sei6= 1eπ([1,·]) =π([·,1]) = 1. Temos que

11= 1e

H(π) =−X

i,j

log(Jijπ)πij =−log(J11π)π11=−log(1) = 0.

Como veremos abaixo a entropia de uma probabilidade invariante pertence ao intervalo [0,log(n)]. No primeiro exemplo acima, consideramos a

probabili-dade com distribuição uniforme sobreX. Neste caso, a entropia obtida é máxima

(log(n)).No segundo exemplo, consideramos uma probabilidade concentrada em um único ponto deX(π11= 1). Neste caso, a entropia obtida é mínima (zero).

Exemplo 3.5. Suponhan = 2e portanto X = {1,2} × {1,2}. Sejam p1 ep2 números positivos satisfazendop1+p2 = 1. Considere

π = π11 π12

π21 π22

!

= p1p1 p1p2

p2p1 p2p2

!

.

Comop1ep2são positivos concluímos queπé positiva. Além disso

π11+π12+π21+π22=p1p1+p1p2+p2p1+p2p2=p1(p1+p2) +p2(p1+p2)

= (p1+p2)(p1+p2) = (1)(1) = 1.

Isso mostra queπ é uma probabilidade. Por ser simétrica, concluímos que π é invariante.

O Jacobiano deπé dado por

=

 

p1p1

p1p1+p2p1

p1p2

p1p2+p2p2

p2p1

p1p1+p2p1

p2p2

p1p2+p2p2

=

 

p1 p1

p2 p2

 .

Portanto

H(π) =−X

i,j

log(Jijπ)πij

=−[log(p1)p1p1+ log(p1)p1p2+ log(p2)p2p1+ log(p2)p2p2]

=−[log(p1)p1+ log(p2)p2]. Comop2 = 1−p1, podemos escrever

H(π) =−[log(p1)p1+ log(1−p1)(1−p1)].

A função ψ(t) = −log(t)(t) −log(1 −t)(1 −t), t ∈ (0,1), tem derivada

ψ(t) = log( t

(31)

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Gr

ande

-RS

-FURG

-IV

Colóquio

de

Matemática

p1 p2 π H(π)

0,5 0,5 0,25 0,25 0,25 0,25

!

0,6931

0,4 0,6 0,16 0,24 0,24 0,36

!

0,5108

0,3 0,7 0,09 0,21 0,21 0,49

!

0,3567

0,2 0,8 0,04 0,16 0,16 0,64

!

0,2231

0,1 0,9 0,01 0,09 0,09 0,81

!

0,1054

Exemplo 3.6. Generalizando o exemplo anterior, dados números positivosp1, ..., pn,

tais quep1 +...+pn = 1, defina uma probabilidadeπ sobreX = {1, ..., n} ×

{1, ..., n}por

πij =pi·pj.

πé de fato uma probabilidade positiva, poisπij =pi·pj >0e

X

i

X

j

πij =

X

i

X

j

pi·pj=

X

i

pi

X

j

pj=

X

i

pi = 1.

Além disso,πé invariante, pois é simétrica (πij =πji).

O Jacobiano deπé dado por

Jijπ = Pπij

lπlj

= Ppi·pj

lpl·pj

= Ppi

lpl

=pi

e a entropia deπé igual a

H(π) =−X

i,j

log(Jijπ)πij =−

X

i

X

j

log(pi)pipj

=−X

i

log(pi)pi

X

j

pj =−

X

i

log(pi)pi.

Exemplo 3.7. Dada uma matriz coluna estocástica positivaA = (aij)com vetor

estacionário P¯ = (pj) e auto-probabilidade π = (πij) = (aijpj) temos que

=A. Portanto

H(π) =−X

i,j

log(aij)aijpj.

(32)

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Grande

-RS

-FURG

-IV

Colóquio

de

Teorema 3.8. Dada uma probabilidade invarianteπ,

H(π) = inf{−X

i,j

log(bij)πij |B = (bij)1≤i,jné coluna estocástica e positiva}.

Antes da prova vamos apresentar algumas de suas aplicações.

Corolário 3.9. Para qualquer probabilidade invarianteπ, 0≤H(π)≤log(n).

Demonstração: ComoJijπ ≤1para quaisqueri, j, temos quelog(Jijπ)≤ 0e

P

ijlog(Jijπ)πij ≤ 0. PortantoH(π) = −Pijlog(Jijπ)πij ≥ 0. Por outro lado,

aplicando-se o teorema anterior para a matriz constanteB = (1/n):

H(π) =−X

i,j

log(Jijπ)πij ≤ −

X

i,j

log(1

n)πij = log(n).

Corolário 3.10. O conjunto das probabilidades invariantes é convexo e a entropia é uma função côncava sobre este conjunto. Mais precisamente, seπeη são pro-babilidades invariantes sobreXeλ∈[0,1], temos

a.λπ+ (1−λ)ηé uma probabilidade invariante b.H(λπ+ (1−λ)η)≥λH(π) + (1−λ)H(η).

Demonstração:Sejamπ = (πij)eη= (ηij)probabilidades invariantes sobre

X={1, ..., n} × {1, ..., n}e fixeλ∈[0,1]. Denotamos porγ =λπ+ (1−λ)η, a combinação convexa deπ eη com pesosλe (1−λ). Queremos inicialmente mostrar queγé uma probabilidade invariante. Para isso observamos queπij ≥0e

ηij ≥0, entãoγij =λπij + (1−λ)ηij ≥0. Além disso

X

i,j

γij =

X

i,j

(λπij+ (1−λ)ηij) =λ

X

i,j

πij+(1−λ)

X

i,j

ηij =λ·1+(1−λ)·1 = 1,

garantindo queγ é uma probabilidade.

Para mostrarmos queγ é invariante observamos que, fixadok ∈ {1, ..., n},

P

iπik=PjπkjePiηik =Pjηkj. Então

X

i

γik=λ

X

i

πik+ (1−λ)

X

i

ηik =λ

X

j

πkj+ (1−λ)

X

j

ηkj =

X

j

γkj.

Por fim, vamos mostrar queH(γ) ≥λH(π) + (1−λ)H(η). Com este objetivo, fixamosǫ > 0. Pelo Teorema 3.8 existe uma matriz coluna estocástica positiva

B = (Bij)tal queH(γ) >−Pi,jlog(Bij)γijǫ.Usando a definição deγ e o

Teorema3.8aplicado emπeηtemos:

H(γ)> λ

−X

i,j

log(Bij)πij

+ (1−λ) 

−X

i,j

log(Bij)ηij

(33)

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

da

Re

gião

Sul

-Rio

Grande

-RS

-FURG

-IV

Colóquio

de

Matemática

> λH(π) + (1−λ)H(η)−ǫ.

Considerandoǫarbitrariamente pequeno obtemos que

H(γ)≥λH(π) + (1−λ)H(η).

Exemplo 3.11. Vamos mostrar um exemplo ondeH(12π+12η)> 12H(π)+12H(η). Considere probabilidades em{1,2} × {1,2}definidas por

π11 π12

π21 π22

!

= 0 1/2 1/2 0

!

e η11 η12 η21 η22

!

= 1/2 0 0 1/2

!

.

Neste caso

= 0 1 1 0

!

e Jη = 1 0 0 1

!

.

PortantoH(π) =−Pi,jlog(

ij)πij = 0eH(η) =−Pi,jlog(Jijη)ηij = 0. No

entanto

γ = 1 2π+

1 2η=

1/4 1/4 1/4 1/4

!

satisfaz

= 1/2 1/2 1/2 1/2

!

.

Como consequência temos

H(γ) =−X

i,j

log(Jijγ)γij =−

X

i,j

log

1

2

1

4

=−4 log

1

2

1

4 =−log(1/2) = log(2).

Podemos identificar uma probabilidade sobreX={1, ..., n} × {1, ..., n}com um elemento de Rn2

. Com esta identificação podemos induzir uma métrica no conjunto das probabilidades invariantes. Desta forma, dizemos que uma sequência de probabilidades{πn}

n=1,2,...converge para uma probabilidadeπ (quandon

+∞) se lim

n→+∞π

n

ij =πij para quaisqueri, j∈ {1, ..., n}.

Proposição 3.12. Dada uma sequência de probabilidades invariantes π1, π2, ...

convergindo paraπ, temos que a)πé uma probabilidade invariante; b)H(π)≥lim sup

n→+∞

Referências

Documentos relacionados

A participação foi observada durante todas as fases do roadmap (Alinhamento, Prova de Conceito, Piloto e Expansão), promovendo a utilização do sistema implementado e a

Nas leituras de falhas efetuadas, foram obtidos códigos de anomalia por meio de dois diferentes protocolos de comunicação: o ISO 14230 KWP (2000) e o ISO 15765-4 CAN. A seguir, no

ABSTRACT: The toxicological effects of crude ethanolic extracts (CEE) of the seed and bark of Persea americana have been analyzed on larvae and pupae of

DATA: 17/out PERÍODO: MATUTINO ( ) VESPERTINO ( X ) NOTURNO ( ) LOCAL: Bloco XXIB - sala 11. Horário Nº Trabalho Título do trabalho

variáveis “potência de UV irradiada” e pH , quando a variável [CN - ]0 está em seu nível inferior e a variável “razão molar [H2O2]:[CN - ]” estão em seu nível superior

As pontas de contato retas e retificadas em paralelo ajustam o micrômetro mais rápida e precisamente do que as pontas de contato esféricas encontradas em micrômetros disponíveis

Para disciplinar o processo de desenvolvimento, a Engenharia de Usabilidade, também conceituada e descrita neste capítulo, descreve os métodos estruturados, a

[Na verdade, o erro encontra-se à página 217, num verso da estrofe V da parte I de ―A cristã nova‖: ―De ir voando, atrazez da espessa treva,‖ – o erro foi corrigido,