• Nenhum resultado encontrado

Raciocínio Probabilístico

N/A
N/A
Protected

Academic year: 2022

Share "Raciocínio Probabilístico"

Copied!
92
0
0

Texto

(1)

Raciocínio Probabilístico

(2)

Sumário

• Representação de conhecimento num domínio incerto

• Redes de Bayes (redes Bayesianas)

• Inferência em Redes Bayesianas

(3)

Redes Bayesianas (Redes de

crenças)

Bayesian Belief Networks

(4)

Redes Bayesianas

PCWP CO

HRBP

HREKG HRSAT ERRCAUTER HISTORY HR

CATECHOL

SAO2 EXPCO2

ARTCO2 VENTALV

VENTLUNG VENITUBE

DISCONNECT MINVOLSET

VENTMACH KINKEDTUBE

INTUBATION PULMEMBOLUS

PAP SHUNT

ANAPHYLAXIS

MINOVL

PVSAT FIO2

PRESS

INSUFFANESTH TPR

LVFAILURE

ERRBLOWOUTPUT STROEVOLUME

LVEDVOLUME HYPOVOLEMIA

CVP

BP

(5)

Redes Bayesianas

PCWP CO

HRBP

HREKG HRSAT ERRCAUTER HISTORY HR

CATECHOL

SAO2 EXPCO2

ARTCO2 VENTALV

VENTLUNG VENITUBE

DISCONNECT MINVOLSET

VENTMACH KINKEDTUBE

INTUBATION PULMEMBOLUS

PAP SHUNT

ANAPHYLAXIS

MINOVL

PVSAT FIO2

PRESS

INSUFFANESTH TPR

LVFAILURE

ERRBLOWOUTPUT STROEVOLUME

LVEDVOLUME HYPOVOLEMIA

CVP

BP

As redes de crença são uma representação gráfica para permitir inferências na presença de

incerteza

(6)

Redes Bayesianas

PCWP CO

HRBP

HREKG HRSAT ERRCAUTER HISTORY HR

CATECHOL

SAO2 EXPCO2

ARTCO2 VENTALV

VENTLUNG VENITUBE

DISCONNECT MINVOLSET

VENTMACH KINKEDTUBE

INTUBATION PULMEMBOLUS

PAP SHUNT

ANAPHYLAXIS

MINOVL

PVSAT FIO2

PRESS

INSUFFANESTH TPR

LVFAILURE

ERRBLOWOUTPUT STROEVOLUME

LVEDVOLUME HYPOVOLEMIA

CVP

BP

As redes de crença são uma representação gráfica para permitir inferências na presença de

incerteza

Estrutura de dados para representar as dependências entre variáveis e fornecer uma especificação concisa de qualquer distribuição

de probabilidade conjunta total.

(7)

• Uma rede Baysiana é um grafo direccionado e acíclico em que cada nó é anotado com a

informação sobre probabilidades.

• Sintaxe:

– Cada nó corresponde a uma variável aleatória (que pode ser discreta ou contínua)

– Contém um conjunto de ligações direccionadas (seta

= influência direta") de “pais” para filhos

– cada nó tem uma distribuição condicional P(Xi | Pais (Xi)) que quantifica o efeito dos pais sobre o nó

Redes Bayesianas

(8)

Exemplo

CarieNoDente

DorDeDentes Detecta

(9)

Exemplo

CarieNoDente

DorDeDentes Detecta

A topologia de uma rede representa relações de independência condicional

Weather

(10)

Exemplo

CarieNoDente

DorDeDentes Detecta

•“Tempo” é independente de outras variáveis

•DorDeDentes e Detecta são

condicionalmente independentes dado CarieNoDente

Weather

(11)

Tabela de Probabilidade Condicional

• No caso mais simples, a distribuição condicional é representada como uma tabela de probabilidade

condicional (TPC) dada uma distribuição sobre Xi para cada combinação de valores dos pais.

(12)

Exemplo

I have two neighbors , John and Mary, who have promised to call when they hear the alarm. I'm at work, neighbor John calls to say my alarm is ringing, but neighbor Mary doesn't call. Sometimes the alarm is set off by minor earthquakes. Is there a burglar?

(13)

Exemplo

I have two neighbors , John and Mary, who have promised to call when they hear the alarm. I'm at work, neighbor John calls to say my alarm is ringing, but neighbor Mary doesn't call. Sometimes the alarm is set off by minor earthquakes. Is there a burglar?

Variáveis: Burglary, Earthquake, Alarm, JohnCalls, MaryCalls

A topologia da rede reflete conhecimento "causal":

– Um roubo (burglary) pode fazer disparar o alarme – Um terremoto (earthquake) pode ligar o alarme – O alarme faz Mary telefonar

– O alarme faz John telefonar

(14)

Exemplo

P(B) 0.01

Alarm

JohnCalls MaryCalls

Burglary Earthquake

P(E) 0.02

(15)

Exemplo

P(B) 0.01

Alarm

JohnCalls MaryCalls

Burglary Earthquake

P(E) 0.02

B E P(A|B,E)

T T 0.95

T F 0.94

F T 0.29

F F 0.01

(16)

Exemplo

P(B) 0.01

Alarm

JohnCalls MaryCalls

Burglary Earthquake

P(E) 0.02

A P(M|A) T 0.7 F 0.01 A P(J|A)

T 0.9 F 0.05

B E P(A|B,E)

T T 0.95

T F 0.94

F T 0.29

F F 0.01

(17)

Topologia da Rede

P(B) 0.01

Alarm

JohnCalls MaryCalls

Burglary Earthquake

P(E) 0.02

A P(M|A) T 0.7 F 0.01 A P(J|A)

T 0.9 F 0.05

B E P(A|B,E)

T T 0.95

T F 0.94

F T 0.29

F F 0.01

Roubos e terremotos afetam diretamente a probabilidade to

alarme tocar

(18)

Topologia da Rede

P(B) 0.01

Alarm

JohnCalls MaryCalls

Burglary Earthquake

P(E) 0.02

A P(M|A) T 0.7 F 0.01 A P(J|A)

T 0.9 F 0.05

B E P(A|B,E)

T T 0.95

T F 0.94

F T 0.29

F F 0.01

Mas o fato de John e Mary telefonarem só depende do alarme;

(19)

Topologia da Rede

P(B) 0.01

Alarm

JohnCalls MaryCalls

Burglary Earthquake

P(E) 0.02

A P(M|A) T 0.7 F 0.01 A P(J|A)

T 0.9 F 0.05

B E P(A|B,E)

T T 0.95

T F 0.94

F T 0.29

F F 0.01

A rede representa nossas suposições de que eles não vêm qualquer roubo diretamente, nem notam os terremotos.

e que não verificam antes de ligar!

(20)

As probabilidades...

• .

.. resumem um conjunto potencialmente infinito de circunstâncias (Mary ouve música alta, John liga quando toca o telefone; humidade, falta de energia, etc podem interferir no alarme; ) mas não temos que as listar…

Preguiça e ignorância!

(21)

Exemplo

P(B) 0.01

Alarm

JohnCalls MaryCalls

Burglary Earthquake

P(E) 0.02

A P(M|A) T 0.7 F 0.01 A P(J|A)

T 0.9 F 0.05

B E P(A|B,E)

T T 0.95

T F 0.94

F T 0.29

F F 0.01

(22)

Tabelas de probabilidade condicional (TPC )

• Cada linha em uma TPC contém a probabilidade condicional de cada valor de nó para um caso de condicionamento;

– um caso de condicionamento é apenas uma combinação possível de valores para os nós superiores

(23)

Exemplo

P(B) 0.01

Alarm

JohnCalls MaryCalls

Burglary Earthquake

P(E) 0.02

A P(M|A) T 0.7 F 0.01 A P(J|A)

T 0.9 F 0.05

B E P(A|B,E)

T T 0.95

T F 0.94

F T 0.29

F F 0.01

(24)

Tabelas de probabilidade condicional (TPC )

• Cada linha em uma TPC contém a probabilidade condicional de cada valor de nó para um caso de condicionamento;

– um caso de condicionamento é apenas uma combinação possível de valores para os nós superiores

• Para cada nó Xi da rede, cada linha da TPC requer um número p para Xi = true (prob. para Xi = false é 1-p)

(25)

Tabelas de probabilidade condicional (TPC )

• Cada linha em uma TPC contém a probabilidade condicional de cada valor de nó para um caso de condicionamento;

– um caso de condicionamento é apenas uma combinação possível de valores para os nós superiores

• Para cada nó Xi da rede, cada linha da TPC requer um número p para Xi = true (prob. para Xi = false é 1-p)

• Um nó sem pais tem apenas uma linha: “probabilidade a priori”

• Em geral, uma tabela para uma variável booleana com k pais booleanos possui 2k probabilidades

• Se cada variável não possuir mais do que k pais, uma

consulta à rede completa será O(n · 2k), para n = número de nós.

– I.e., cresce linearmente em n, vs. O(2n) da distribuição total

(26)

Exemplo

P(B) 0.01

Alarm

JohnCalls MaryCalls

Burglary Earthquake

P(E) 0.02

A P(M|A) T 0.7 F 0.01 A P(J|A)

T 0.9 F 0.05

B E P(A|B,E)

T T 0.95

T F 0.94

F T 0.29

F F 0.01

(27)

Semântica das Redes Bayesianas

• Duas maneiras equivalentes:

Semântica global (ou numérica): entender as redes como uma representação da

distribuição de probabilidade conjunta;

• indica como construir uma rede

Semântica local (ou topológica): visualizá- las como uma codificação de uma coleção de declarações de independência condicional.

• Indica como fazer inferências com uma rede.

(28)

Semântica Global

A semântica global (ou numérica) define a distribuição de

probabilidade total como o produto das distribuições condicionais locais:

P (X1, … ,Xn) = i = 1 P (Xi | Parents(Xi))

Alarm

JohnCalls MaryCalls

Burglary Earthquake

(29)

Semântica Global

Se uma rede bayesiana for uma representação da

distribuição conjunta, então ela poderá ser utilizada para responder a qualquer consulta efectuando-se o somatório de todas as entradas conjuntas

relevantes

Alarm

JohnCalls MaryCalls

Burglary Earthquake

A P(M|A) T 0.7 F 0.01 A P(J|A)

T 0.9 F 0.05 B E P(A|B,E)

T T 0.95 T F 0.94 F T 0.29 F F 0.01

(30)

A semântica global (ou numérica) define a distribuição de probabilidade total como o produto das distribuições condicionais

locais:

P (x1, … ,xn) = P(xn | xn-1…x1) P(xn-1 | xn-2,…x1)…

P(x2 | x1) P(x1) Ou seja:

P (X1, … ,Xn) = i = 1 P (Xi | Parents(Xi)) Chain Rule

Semântica Global

(31)

Exemplo

A semântica global (ou numérica) define a distribuição de probabilidade total como o produto das distribuições

condicionais locais:

P (X1, … ,Xn) = i = 1 P (Xi | Parents(Xi))

P(j m a 

b

e) =????

= P (j | a) P (m | a) P (a |

b,

e) P (

b) P (

e)

= 0.9 x 0.7 x 0.001 x 0.999 x 0.998

= 0.00063

Alarm

JohnCalls MaryCalls

Burglary Earthquake

A P(M|A) T 0.7 F 0.01 A P(J|A)

T 0.9 F 0.05 B E P(A|B,E)

T T 0.95 T F 0.94 F T 0.29 F F 0.01

(32)

Semântica local

Semântica local (topológica):

cada nó é condicionalmente independente de seus não- descendentes, dados seus pais.

• Ex. JohnCalls deve ser

independente de Burglary e Earthquake dado Alarm!

Alarm

JohnCalls MaryCalls

Burglary Earthquake

(33)

Semântica Local

Cada nó é condicionalmente independente dos seus não descendentes dado os seus pais

X

P1 P2

C1 C2

Yi Yj

(34)

Cobertura de Markov

Cada nó é condicionalmente independente de todos os outros dado a sua cobertura de Markov

(pais+ filhos+ filhos dos pais)

X

P1 P2

C1 C2

P3 P4

Yi Yj

(35)

Método para construção

de redes Bayesianas

(36)

36

• A partir das condições de independência dada pela semântica local

– P (X1, … ,Xn) = i = 1 P (Xi | Parents(Xi))

• A distribuibuição conjunta total pode ser obtida (lembrando da regra da cadeia):

– P (X1, … ,Xn) = i = 1 P (Xi | Xi-1, Xi-2, ... , X1 )

36

Construção de redes

Bayesianas

(37)

• De P (X1, … ,Xn) = i = 1 P (Xi | Parents(Xi)) e a regra da cadeia:

• a rede bayesiana é uma representação correta do domínio somente se cada nó for condicionalmente independente de seus predecessores na ordenação dos nós , dados seus pais.

• Ou seja:

– precisamos escolher pais para cada nó de forma que essa propriedade se mantenha

– I.e. os pais de Xi devem conter todos os nós Xi-1, Xi-2, ... , X1 que o influenciam directamente.

Construção de redes

Bayesianas

(38)

Construção de uma rede Bayesiana

• 1. Escolher uma ordem para as variáveis aleatórias X1,

… ,Xn

• 2. Para i = 1 à n

– adicione Xi à rede

– selecione pais para X1, … ,Xi-1 tais que

P (Xi | Pais(Xi)) = P (Xi | X1, ... Xi-1) Esta escolha de pais garante a semântica global:

P (X1, … ,Xn) =  i =1 P (Xi | X1, … , Xi-1) (regra da cadeia)

=  i =1P (Xi | Pais(Xi)) (por construção)

n n

(39)

Ordem para as variáveis

• A ordem correta em que os nós devem ser adicionados consiste em adicionar primeiro as causas de raiz, depois as variáveis que elas influenciam e assim por diante, até chegarmos às folhas, que não têm nenhuma influência causal directa sobre as outras variáveis.

• E se escolhermos a ordem “errada”??

(40)

Ordem para as variáveis

• A ordem correta em que os nós devem ser adicionados consiste em adicionar primeiro as causas de raiz, depois as variáveis que elas influenciam e assim por diante, até chegarmos às folhas, que não têm nenhuma influência causal directa sobre as outras variáveis.

• E se escolhermos a ordem errada??

Intuitivamente, os pais de um no Xi deve conter todos os nós X1 ,…Xi-1 que influenciem directamente Xi

(41)

• Assumindo a ordem: M, J, A, B, E

Exemplo

JohnCalls MaryCalls

P(J | M) = P(J)?

Se a Mary ligar, quer dizer que o alarme disparou o que

significa que é mais provavel que o John também ligue..

Ou seja JonhCalls tem que ter a MaryCalls como pai

(42)

P(J | M) = P(J)? No

P(A | J, M) = P(A | J)? P(A | J, M) = P(A)?

Exemplo

Alarm

• Assumindo a ordem: M, J, A, B, E

JohnCalls MaryCalls

(43)

P(J | M) = P(J)? No

P(A | J, M) = P(A | J)? P(A | J, M) = P(A)? No P(B | A, J, M) = P(B | A)?

P(B | A, J, M) = P(B)?

Exemplo

• Assumindo a ordem: M, J, A, B, E

Alarm

JohnCalls MaryCalls

Burglary

(44)

P(J | M) = P(J)?No

P(A | J, M) = P(A | J)? P(A | J, M) = P(A)? No P(B | A, J, M) = P(B | A)? Yes

P(B | A, J, M) = P(B)? No P(E | B, A ,J, M) = P(E | A)?

P(E | B, A, J, M) = P(E | A, B)?

Exemplo

Alarm

JohnCalls MaryCalls

Burglary

Earthquake

(45)

P(J | M) = P(J)? No

P(A | J, M) = P(A | J)? P(A | J, M) = P(A)? No P(B | A, J, M) = P(B | A)? Yes

P(B | A, J, M) = P(B)? No

P(E | B, A ,J, M) = P(E | A)? No

P(E | B, A, J, M) = P(E | A, B)? Yes

Exemplo

Alarm

JohnCalls MaryCalls

Burglary

Earthquake

(46)

Exemplo

• A rede resultante terá dois vínculos a mais que a rede original e

exigirá outras probabilidades para serem especificadas

• Alguns dos vínculos apresentam relacionamentos tênues que

exigem julgamentos de probabilidade difíceis e antinaturais (prob de Terremoto, dados Roubo e Alarme)

• (Em geral) é melhor pensar de causas para efeitos (modelo causal) e não do contrário (modelo de diagnóstico)

Alarm

JohnCalls MaryCalls

Burglary

Earthquake

(47)

Exemplo

• Uma ordenação de nós má: MarryCalls, JohnCalls, Earthquake, Burglary e Alarm

Entretanto, todas as três redes devem representar a mesma distribuição conjunta. As duas últimas só não

expressam todas as independências condicionais

(48)

Rede final: boa ordenação

Alarm

JohnCalls MaryCalls

Burglary Earthquake

(49)

Representação eficiente de distribuições condicionais

• Ainda que o número de pais k seja reduzido, o preenchimento da TPC para um nó exige até O(2

k

) e muita experiência para decidir os

casos condicionais.

– Esse é o pior caso, em que os

relacionamentos de pais e filhos é arbitrário

• Em muitos casos podemos utilizar um padrão

para obter a tabela (distribuição canónica).

(50)

Representação eficiente de distribuições condicionais

Em muitos casos podemos utilizar um “padrão”

para obter a tabela (distribuição canónica).

(51)

Representação eficiente de distribuições condicionais

Distribuição canónica:

– ajustar a distribuição de probabilidades em cada nó a alguma forma padrão;

– nestes casos a tabela completa pode ser especificada nomeando-se o padrão e

fornecendo-se alguns parâmetros.

– Exemplos:

• nós determinísticos

• relacionamentos lógicos ruidosos: ou-ruidoso

(52)

Representação eficiente:

Distribuição canónica

Nós determinísticos: tem seus valores

especificados pelos valores de seus pais, sem qualquer incerteza:

– X = f(Pais(X)) para alguma função f;

– funções booleanas:

• Norte Americano Canadense  US  Mexicano

– relação numérica entre funções contínuas:

Valor mínimo de alguma funçao

(53)

Relações Incertas:

Noisy-OR

Caso:

fever iff ( cold or  flu or  malaria)

(54)

Noisy-OR (ou “Ou-ruidoso” em contraste com o “Ou”

proposicional)

– Permite a incerteza sobre a capacidade (força) de cada pai para fazer o filho ser verdadeiro

- Relacionamento entre pai e filho pode ser inibido.

- Inibições independentes

– Assim febre” é falsa sse todos os seus “pais

verdadeiros são inibidos”, e a probabilidade de isso ocorrer é o produto das probabilidades de inibição de cada pai.

Relações Incertas:

Noisy-OR

(55)

Relações Incertas:

Noisy-OR

Caso:

fever iff ( cold or  flu or  malaria)

Probabilidades de inibição:

Qcold = P (fever | cold,  flu ,  malaria) =0.6 Qflu = P (fever |  cold , flu,  malaria) = 0.2 Qmalaria = P (fever |  cold, flu ,malaria) = 0.1

(56)

• fever iff ( cold or  flu or  malaria)

P(

fever| cold,

flu,

malaria) = 0.6 P(

fever|

cold, flu,

malaria) = 0.2 P(

fever|

cold,

flu, malaria) = 0.1

Relações Incertas:

Noisy-OR

(57)

“Ou-ruidoso”

– P(fever| cold,  flu,  malaria) = 0.6 – P(fever|  cold, flu,  malaria) = 0.2 – P(fever| cold,  flu, malaria) = 0.1

Relações Incertas:

Noisy-OR

(58)

Relações Incertas:

Noisy-OR

Em geral, as relações incertas em que a ariaável depende de k pais pode ser

descrita usando O(k) parâmetros face aos O(2

k

) necessários para a tabela de

probabilidade condicional total.

(59)

Outros tipos de Redes

• Muitos problemas do mundo real envolvem variáveis com valores contínuos (eg. altura, volume,

temperatura, dinheiro...).

• Uma forma de lidar com variáveis contínuas é através de discretização, isto é dividir os valores em intervalos fixos. Eg

.

Temperatura: dividida em (<0oC), (0oC-100oC) e (>100oC)

• Embora a discretização seja uma possível solução, tem problemas de perca de precisão.

• A forma de resolver é definir famílias standard de

funções de distribuição, por exemplo uma distribuição Gaussiana, N(μ,σ2)

(60)

Redes de Bayes Híbridas

Uma Rede Bayesiana Híbrida é uma rede que contém simultaneamente variáveis discretas e contínuas.

• Para especificar uma rede Bayesiana

híbrida temos que especificar os dois tipos de distribuição:

– Distribuição condicional para uma variável contínua dados pais discretos

– Distribuição condicional para uma variável discreta dados pais contínuos

(61)

Mas para que servem as redes Bayesianas?

Para descobrir relações é necessário fazer

“Inferência”...

(62)

Inferência exacta em Redes Bayesianas

A tarefa essencial para um sistema de inferência com redes Bayesianas é a determinação da distribuição de

probabilidades posteriores para um

conjunto de variáveis dado um evento

observado.

(63)

Tipos de Inferência

Inferência de Diagnóstico

Dos efeitos para as causas

– E.g. Dado que o John ligou, inferir a probabilidade de ser um roubo

P(Burglary|JohnCalls)

(64)

Tipos de Inferência

Inferência Causal

Das causas para os efeitos:

Ex: dado que houve um roubo, qual a probabilidade de John e a Mary ligarem P(JohnCalls|Burglary) and

P(MaryCalls|Burglary)

(65)

Tipos de Inferência

Inferências “inter-causais”

• “dado que o alarme disparou...”, nós temos que P(Burglary|Alarm)= 0.376.

... mas.... “se adicionarmos a evidência que houve um tremor de terra”, então

P(Burglary| Alarm ∧ Earthquake) desce

para 0.003....

(66)

Tipos de Inferência:

combinação

Por exemplo: Qual a probabilidade de ter um ladrão se a Mary e o John ambos me ligarem?

Query: é obtida pelo cálculo da distribuição de probabilidades posterior P(Xi|E = e)

P(Burglar|JohnCalls = true,MaryCalls =

true) ou, P (B|j, m)

(67)

Inferência Exacta

• X- variável que estamos a investigar

• E- conjunto de variáveis que constitui a

“evidencia”, i.e. E1, E2, ...Em

• Y – variáveis que não são evidência, mas estão escondidas (“Hidden variables”)

• Ou seja, o conjunto total de variáveis é:

• X=

(68)

Inferência

P(JohnCalls MaryCalls Alarm Burglary Earthquake)

= P (j | a) P (m | a) P (a | b, e) P (b) P (e)

= 0.9 x 0.7 x 0.001 x 0.999 x 0.998

= 0.00063

P(B) 0.01

Alarm

JohnCalls MaryCalls

Burglary Earthquake

P(E) 0.02

A P(M|A) T 0.7 F 0.01 A P(J|A)

T 0.9 F 0.05

B E P(A|B,E)

T T 0.95

T F 0.94

F T 0.29

F F 0.01

(69)

Inferência por enumeração

Vamos ao exemplo:

P(b| j,m) = ?????

P(B) 0.01

Alarm

JohnCalls MaryCalls

Burglary Earthquake

P(E) 0.02

A P(M|A) T 0.7 F 0.01 A P(J|A)

T 0.9 F 0.05

B E P(A|B,E)

T T 0.95

T F 0.94

F T 0.29

F F 0.01

(70)

Uma forma inteligente de somar as variáveis da distribuição sem construir a sua representação explicita

P(Burglary| JohnCalls=true, MaryCalls=true)

P(b| j, m)

= P(b, j, m)/P (j, m)

= α P(b, j, m)

Σ

e

Σ

a P(b, e, a, j, m)

Em que “e” e “a” são as variáveis escondidas

P(b| j, m)

= α

Σ

e

Σ

a P(b) P(e) P(a|b,e) P(j|a) P(m|a)

= α P(b)

Σ

e P (e)

Σ

a P(a|b,e) P(j|a) P(m|a)

Inferência por

enumeração

(71)

Inferência por enumeração

Vamos ao exemplo:

P(b|j, m) = α P(b) Σe P (e) Σaa P(a|b, e) P(j|a) P(m|a)

P(B) 0.01

Alarm

JohnCalls MaryCalls

Burglary Earthquake

P(E) 0.02

A P(M|A) T 0.7 F 0.01 A P(J|A)

T 0.9 F 0.05

B E P(A|B,E)

T T 0.95

T F 0.94

F T 0.29

F F 0.01

(72)

Árvore de Avaliação

P(b |j, m) = α P(b) Σe P (e) ΣaP(a|b,e) P(j|a) P(m|a)

(73)

Inferência por Enumeração

P(b|j, m) = α P(b) Σe P (e) Σaa P(a|b, e) (j|a) P(m|a)

(74)

Inferência por enumeração

• P(b| j, m) = α P(b) Σe P (e) Σaa P(a|b, e)P (j|a) P(m|a)

• P(b| j,m) = α <0.00059224,0.00149>

≈ <0.284,0716>

a chance de ser um roubo, dado que houve

uma chamada dos dois vizinhos é de 28%

(75)

Inferência por enumeração

• P(b| j, m) = α P(b) Σe P (e) Σaa P(a|b, e)P (j|a) P(m|a)

• P(b| j,m) = α <0.00059224,0.00149>

≈ <0.284,0716>

A complexidade espacial do algoritmo

ENUMERATION-ASK é linear no número de variáveis.

Infelizmente a complexidade temporal para uma rede com n variáveis é sempre O(2n)

(76)

Árvore de Avaliação

P(b|j, m) = α P(b) Σe P (e) Σa P(a|b,e) P(j|a) P(m|a)

(77)

Eliminação de Variáveis

A eliminação de variáveis: fazer as somas da direita para a esquerda guardando os resultados intermédios (factores) para

evitar ter que os voltar a calcular...

Em que f1,f2,f3,f4 e f5 são vectores de dois

elementos, e f3 é uma matriz 2x2x2

(78)

P(b|j,m) α P(b) ΣeP(e) Σa P(a|b, e) P(j|a) P(m|a)

Eliminação de Variáveis

f2(E) f3(A,B,E) f5(A) f4(A) f1(B)

f4(A) = P(m|a) P(m| a)

( )

=

( )

0.700.01 f5(A) =

(

P(j|a)P(j| a)

)

=

( )

0.900.05

(79)

P(b|j,m) α P(b) ΣeP(e) Σa P(a|b, e) P(j|a) P(m|a)

Eliminação de Variáveis

f2(E) f3(A,B,E) f4(A) f5(A) f1(B)

f5(A) = P(m|a) P(m| a)

( )

=

( )

0.700.01 f4(A) =

(

P(j|a)P(j| a)

)

=

( )

0.900.05

Calculo dos produtos

(80)

P(B|j,m) α P(B) ΣeP(e) Σaa P(a|B, e) P(j|a) P(m|a)

Eliminação de Variáveis

f2(E) f3(A,B,E) f4(A) f5(A) f1(B)

(81)

Variáveis irrelevantes

Por exemplo na query

P(JohnCalls | Burglary=true)

Mas a soma em m é igual a 1; ou seja, Mary não é relevante para esta query.

Todas as variáveis que não são antepassadas de uma query, ou que sejam evidencia, são

irrelevantes para a query

(82)

Inferência exata

• A complexidade da Inferência exata depende muito da estrutura da rede.

• A rede apresentada pertence a uma família de redes onde há no máximo um caminho (não direcionado) entre dois nós da rede.

• Estas redes são chamadas “polytrees” (singly conected) e têm propriedades interessantes:

– A complexidade espacial e temporal da inferência exata é linear no tamanho da rede

• Em redes “multiply connected” a eliminação de variáveis pode ter complexidade exponencial (em tempo e espaço).

(83)

A investigar...

• Clustering algorithms (em SAD): juntar nós individuais da rede para formar

“cluster nodes” de forma a que a rede

resultante seja uma polytree...

(84)

Aplicações

(85)

Exemplos reais

(86)

Para avaliar alunos....

• Educational Testing Service (ETS) the world’s largest private

educational testing organization. Research unit doing research on adaptive tests using Bayesian networks:

http://www.ets.org/research/

(87)

Hidden Markov Models

World

Observations

World

Observations

World

Observations

P(W t |o t , o t-1 , o t-2 …o 0 )?

(88)

A maioria dos os sistemas de reconhecimento de voz usam

Hidden Markov Models

(89)

Robôs

(90)
(91)
(92)

Resumo

• Redes Bayesianas são representações explícitas de independência condicional

• Topologia + TPCs = representações compactas de distribuições conjuntas totais

• Ferramentas poderosas para construir

uma representação de um domínio que

envolva incerteza.

Referências

Documentos relacionados

Sendo assim, percebe-se que o serviço de acolhimento constituiu-se, sobretudo, da necessidade de humanizar o atendimento, bem como de torna-lo mais ágil e efetivo, garantindo, desse

A abordagem mais usual de fadiga, que utiliza a tensão nominal e a classificação de detalhes geométricos para previsão da vida em fadiga, não abrange conexões mais complexas e

Figura A53 - Produção e consumo de resinas termoplásticas 2000 - 2009 Fonte: Perfil da Indústria de Transformação de Material Plástico - Edição de 2009.. A Figura A54 exibe

Ainda segundo Gil (2002), como a revisão bibliográfica esclarece os pressupostos teóricos que dão fundamentação à pesquisa e às contribuições oferecidas por

Com base nos resultados da pesquisa referente à questão sobre a internacionalização de processos de negócios habilitados pela TI com o apoio do BPM para a geração de ganhos para

Na apropriação do PROEB em três anos consecutivos na Escola Estadual JF, foi possível notar que o trabalho ora realizado naquele local foi mais voltado à

Local de realização da avaliação: Centro de Aperfeiçoamento dos Profissionais da Educação - EAPE , endereço : SGAS 907 - Brasília/DF. Estamos à disposição

O score de Framingham que estima o risco absoluto de um indivíduo desenvolver em dez anos DAC primária, clinicamente manifesta, utiliza variáveis clínicas e laboratoriais