An´
alise Bayesiana de Decis˜
ao
Parte 1: m´
etrica de incerteza
Paul Kinas
Por Que ”bayesiano”?
1 ”Importante para Ciˆencia (e para a vida): como aprender com
a experiˆencia?” (Harold Jeffreys (1891-1989) - Theory of
Probability)
2 Probabilidade ´e a m´etrica adequada para quantificar
INCERTEZA (E.T. Jaynes (1922-1998) - Probability: the logic of Science)
3 Pierre S. Laplace (1749 - 1827) foi o primeiro a quantificar
Por Que ”bayesiano” em Ecologia ?
1 There is a revolution brewing in Ecology. A. McCarthy
-Bayesian Methods for Ecology (2007)
2 Clark, J.S. (2005) Why environmental scientists are becoming
Bayesians. Ecology Letters 8: 2-14.
3 Linguagem R e bibliotecas como ’rjags’ que conectam o R ao
Estat´ıstica Frequentista(F) vs Bayesiana (B)
1 (F) responde perguntas pr´e-dados
Ex.: Qual a possibilidade de ver 7 ou mais fˆemeas entre 10
botos se a propor¸c˜ao de sexos for 1:1
2 (B) responde perguntas p´os-dados
Ex.: Se observei mais de 7 fˆemeas entre 10 botos, qual ´e a plausibilidade da raz˜ao 1:1 para machos e fˆemeas
3 (F) n˜ao utiliza (explicitamente) informa¸c˜oes relevantes
extra-dados
4 (B) integra os dados com informa¸c˜oes relevantes
FUNDAMENTOS I
Silogismos fortes: v´
alidos por dedu¸c˜
ao
A: XX ´e guitarrista
B: XX toca um instrumento musical
1 Caso 1
Premissa: Se A ´e verdadeiro ent˜ao B ´e verdadeiro; Fato: A ´e verdadeiro;
Conclus˜ao: B ´e verdadeiro.
2 Caso 2
Premissa: Se A ´e verdadeiro ent˜ao B ´e verdadeiro; Fato: B ´e falso;
FUNDAMENTOS II
Silogismos fracos: racioc´ınio indutivo
A: XX ´e guitarrista
B: XX toca um instrumento musical
1 Caso 3
Premissa: Se A ´e verdadeiro ent˜ao B ´e verdadeiro; Fato: A ´e falso;
Conclus˜ao: B se torna menos plaus´ıvel.
2 Caso 4
Premissa: Se A ´e verdadeiro ent˜ao B ´e verdadeiro; Fato: B ´e verdadeiro;
Formaliza¸c˜
ao de L´
ogica Indutiva
(R. Cox -1946; G. Polya - 1954 )
1 Os n´ıveis de plausibilidade s˜ao representados por n´umeros
reais. [permite classificar/ordenar as proposi¸c˜oes.]
2 Existe correspondˆencia qualitativa com o senso comum. [Uma
proposi¸c˜ao mais plaus´ıvel que outra, dever´a estar associada a
um n´umero maior que aquela.]
3 H´a consistˆencia nas medi¸c˜oes de plausibilidade.
i – Se a solu¸c˜ao puder ser obtida de v´arias formas, ent˜ao todas devem levar ao mesmo resultado.
ii – Sempre estar´a sendo levada em conta toda a evidˆencia relevante. N˜ao ser´a arbitrariamente ignorada alguma informa¸c˜ao.
iii – N´ıveis equivalentes de informa¸c˜ao correspondem a n´ıveis
A M´
etrica P(A): os axiomas
1 0 ≤ P(A|H) ≤ 1
2 Para A e B exclusivos, a probabilidade de A + B = ’ao menos
um V’ ´e dada por:
P(A + B|H) = P(A|H) + P(B|H)
3 a Probabilidade de A · B = ’ambos s˜ao V’ ´e dada por
P(AB|H) = P(A|H) · P(B|AH)
4 Conglomerabilidade:
Se {Ei; i = 1, 2, · · · } ´e uma parti¸c˜ao infinita e se
A M´
etrica: dois teoremas
Teorema da Probabilidade Total:
p(A|H) = m P j =1 P(A|EjH) · P(Ej|H) Teorema de Bayes: P(F |EH) = P(E |FH) · P(F |H) P(E |H)
Teorema de BAYES conforme Bayes e Laplace
Vers˜ao ”bayesiana” do Teorema de Bayes
θ ´e o parˆametro (hip´otese)
X s˜ao os dados observados P(θ|X ) = P(X |θ) · P(θ) P(X ) P(θ) ´e probabilidade PRIORI de θ P(X |θ) ´e a verossimilhan¸ca de θ em fun¸c˜ao de X P(θ|X ) ´e a probabilidade POSTERIOR de θ
Exemplo 1: Qual ´
e a moeda correta?
1 Tres moedas: m1= {C , C }, m2 = {C , K }, m3 = {K , K }
2 Xi = 0 se ocorre C no lan¸camento i e Xi = 1 se ocorre K
3 Ignorˆancia a priori: P(m1) = P(m2) = P(m3) = 1/3
4 Experimento fornece a informa¸c˜ao X1 = 1
P(1|m1) = 0; P(1|m2) = 1/2 e P(1|m3) = 1
P(X = 1) = P(1|m1)P(m1) + P(1|m2)P(m2) + P(1|m3)P(m3)
T. de Bayes: P(m1|1) = 0; P(m2|1) = 1/3; P(m3|1) = 2/3
5 ”Quantos K ’s preciso ver at´e me convencer de que se trata de
Exemplo 2: A mesa de bilhar do Rev. Thomas Bayes
O Experimento
De olhos vendados lan¸camos uma bola (vermelha) sobre a mesa de
bilhar. O objetivo ´e saber a posi¸c˜ao desta bola entra a borda esquerda (posi¸c˜ao ”zero”) e direita (posi¸c˜ao ”um”) da mesa. Para obter informa¸c˜oes que ajudem a determinar esta posi¸c˜ao,
lan¸camos uma segunda bolas (azul) e somos informados por um
observador se esta bola est´a localizada a direita ou a esquerda da bola vermelha
Pergunta 1: de que forma esta informa¸c˜ao modifica nossa
percep¸c˜ao sobre a posi¸c˜ao da bola vermelha?
Pergunta 2: se continuarmos lan¸cando bolas azuis, de que
Exemplo 2: A mesa de bilhar do Rev. Thomas Bayes
1 Se θ ´e a posi¸c˜ao da bola vermelha ent˜ao
p(θ) = dbeta(θ, a, b) ´e uma poss´ıvel priori.
2 Se Xi ∈ {1, 0} denota a posi¸c˜ao a esquerda ou direita da
i -´esima bola azul, respectivamente, ent˜ao: p(Xi|θ) = dbinom(Xi, 1, θ)
3 Teorema de Bayes
p(θ|X1) ∝ dbinom(X1, 1, θ) · dbeta(θ, a, b)
4 Conjuga¸c˜ao Binomial e Beta
Exemplo 2: A mesa de bilhar do Rev. Thomas Bayes
0.0 0.2 0.4 0.6 0.8 1.0 0.6 0.8 1.0 1.2 1.4 priori theta p(theta) 0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.5 1.0 1.5 2.0 {E} (x.1 = 1) theta p(theta|x.1) 0.0 0.2 0.4 0.6 0.8 1.0 0.0 1.0 2.0 3.0 {E,E} (x.1 = 1,x.2 = 1) theta p(theta|x.1,x.2) 0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.5 1.0 1.5 {E,E,D} (x.1 = 1,x.2 = 1,x.3=0) theta p(theta|x.1,x.2,x.3)Exemplo 2: A mesa de bilhar do Rev. Thomas Bayes
0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.5 1.0 1.5 2.0 2.5 3.0 {EEDDDEEDDEEEE} theta p(theta|x)Exemplo 3: bacalhau do Pac´ıfico (Gadus macrocephalus)
1 Rela¸c˜ao Estoque Parental (S) vs Recrutamento (R) (Ricker)
2 Parˆametros: biomassa virgem B1; produtividade b
3 Estoque parental ´otimo (Sopt)
Sopt = B1
b
4 Esp´ecies K-estrategistas (B1 grande) e r-estrategistas (b
Decis˜
ao sob incerteza (A.B.D.)
Incerteza afeta a escolha de uma decis˜ao? SIM
Como proceder?
1 quantifique estados na natureza θ com probabilidades; 2 liste as poss´ıveis a¸c˜oes ’a’
3 quantifique as consequˆencias L(a, θ) obs.: ”risco de a” ´e a somat´orioP
θL(a, θ) · p(θ)
4 a a¸c˜ao ´otima ’ao’ minimiza o ”risco”
mudan¸cas nos fatos afetam as probabilidades de θ
mudan¸cas na preferˆencia afeta a quantifica¸c˜ao das consequˆencias L(·, ·)
PLANO DE AULAS
1 05/5 – M´etrica de incerteza.
2 12/5 – Passeio bayesiano por Probabilidades
3 19/5 – Distribui¸c˜oes posteriores com fam´ılias conjugadas. 4 26/5 – Distribui¸c˜oes posteriores via simula¸c˜ao (parte 1) 5 02/6 – Distribui¸c˜oes posteriores via simula¸c˜ao (parte 2) 6 09/6 – Inferˆencia estat´ıstica bayesiana
7 26/6 – Modelos lineares [generalizados]. Perspectivas futuras
8 30/7 - Entrega do Relat´orio de An´alise Estat´ıstica RAE(*) e
FIM
OBRIGADO paulkinas@furg.br