Incerteza
Disciplina: Inteligência Artificial
Prof.: Cedric Luiz de Carvalho
Tópicos
Introdução
Representação da incerteza
Probabilidade condicional e incondicional Inferência probabilística
Inferência Bayesiana
Regras de Bayes
Aplicação da Regra de Bayes
Introdução
Nos processos de inferência vistos:
um fato é verdadeiro um fato é falso
um fato é desconhecido
Pode-se haver casos onde: um fato é
provavelmente verdadeiro
mundo aleatório
distribuição das pessoas que ficarão doentes durante uma
epidemia de dengue
mundo não aleatório, mas não temos acesso a todos
os dados:
Irrigação
Um agricultor ativa um sistema de irrigação apenas nas
épocas mais secas (primavera e inverno). Em outras estações, deve existir chuva suficiente.
Tanto a irrigação quanto a chuva podem deixar a
varanda da casa do agricultor (próxima à área plantada) muito molhada.
O chão da varanda, quando molhado, fica muito
escorregadio.
Como:
Representar de modo simples as relações de causalidade? Analisar os efeitos de cada variável sobre estas relações? Tomar decisões com base nestes efeitos?
O Dilema do Prisioneiro
(1) Três prisioneiros (A, B e C) julgados por
assassinato e em prisão preventiva. Amanhã será o julgamento, e apenas um será
condenado à prisão
O guarda da prisão é amigo do juiz, e já sabe
quem será condenado
No meio da noite, o prisioneiro A chama o
guarda e pede que este entregue uma carta a um prisioneiro que será libertado
O Dilema do Prisioneiro
(2)
Uma hora depois, A chama o guarda
novamente e diz:
“Acho que você pode me dizer para quem
deu a carta. Isto não muda a minha
situação, já que eu já sei que um deles vai
ser libertado mesmo, independente do
meu julgamento.”
O guarda concorda e diz: “Dei a carta ao
prisioneiro B.”
O Dilema do Prisioneiro
(3)
A não consegue mais dormir. Passa a noite
pensando:
“Antes do guarda falar, as minhas chances
de ser condenado eram de 1 em 3. Agora
que ele falou algo que eu considerava
irrelevante (ou seja, o nome de alguém que
será libertado), as minhas chances de ser
condenado passaram para 1 em 2... Onde
foi que eu errei?”
O Dilema do Prisioneiro
(4) MORAL DA ESTÓRIA:MODELAGEM DE PROBLEMAS ENVOLVENDO INCERTEZA DEVE SER FEITA COM MUITO
Incerteza
(1)
Agente lógico conhece todos fatos sobre o
ambiente
definirá seus planos de ações em muitos casos
não terá nenhuma ação
Exemplo: Plano A90
A imperfeição da informação é geralmente
conhecida na literatura de sistemas
Incerteza
(2)
Termo é muito restritivo
o que se convenciona chamar de tratamento de
incerteza pode, na verdade, estar endereçando outras imperfeições da informação:
imprecisão, conflito, ignorância parcial etc.
As informações podem variar de perfeitas a
completamente imperfeitas
Representação de Incerteza
(1)
Informação perfeita: A aula começa às 8h
Informação imprecisa: A aula começa entre
8h e 9h
Informação incerta: Eu acho que a aula
começa às 8h
Informação vaga: A aula começa lá pelas
8h
Informação probabilista: É provável que a
Representação de Incerteza
(2)
Informação possibilista: É possível que a
aula comece às 8h
Informação inconsistente: Maria disse que
a aula começa às 8h mas João disse que
ele começa às 10h
Informação incompleta: Eu não sei a que
horas a aula começa, mas normalmente
na UFG as aulas começam às 8h
Ignorância Total: Eu não faço a menor
Representação de Incerteza
(3)O que fazer então?
Depende da importância relativa das
várias metas e das probabilidades da sua
ocorrência
Sistemas de diagnósticos
sempre trabalham com incerteza
conserto de carro, medicina, mercado, leis
Regra de diagnóstico
∀ p sintoma (p, dor de garganta) ⇒ doença (p, gripe)
A doença (causa do sintoma) pode ser outra. ∀ p sintoma (p, dor de garganta) ⇒
doença (p, gripe) v doença(p, dengue) ...
Regra causal
∀ p doença (p, gripe) ⇒ sintoma (p,dor de garganta)
Há circunstâncias em que a doença não provoca
o sintoma.
A conexão entre antecedente e conseqüente não
é uma implicação lógica em nenhuma direção
Agentes em Lógica de Primeira Ordem
enfrentam dificuldades em situações
onde:
o agente não tem acesso a todo o ambiente o agente tem uma compreensão incompleta
ou incorreta do ambiente
A lógica de primeira ordem falha no
domínio de diagnóstico médico devido a:
“preguiça”:
existem causas ou conseqüências demais a
considerar
ignorância teórica:
não existe uma teoria completa para o domínio
ignorância prática:
não podemos fazer todos os testes necessários
para o diagnóstico perfeito
Na lógica de predicados é fácil representar:
todas as lojas estão fechadas aos domingos ninguém vive mais de 150 anos
carros de bombeiros são sempre vermelhos
Mas não fatos tão simples:
a maioria das lojas está fechada aos domingos quase ninguém vive mais de 100 anos
normalmente os carros de bombeiros são vermelhos
Nestes casos, o conhecimento do agente pode
apenas prover um grau de crença nas sentenças relevantes
O uso da teoria da probabilidade
grau de crença: 0 – 1 Exemplo:
P(gripe|dor de garganta) = 0.8
Resume a nossa incerteza oriunda da falta de
conhecimento preciso e completo sobre o problema
Se acredita que o paciente tem 80% de chances
de ter gripe se ele estiver com dor de garganta
não é certeza absoluta
O grau de crença pode ser derivado:
dados estatísticos regras gerais
combinação de evidências
Probabilidade 0.8 não significa 80% de verdade
80% de crença do médico
Quando se fala de probabilidade neste contexto,
não se faz referência a números, e sim, a um tipo de raciocínio
“A chance de que um paciente portador do sintoma S apresente no futuro próximo a doença D é p”
A verdade desta afirmação não é o valor preciso de p,
mas um valor de crença do médico dependendo das
evidências
do mundo
Dificuldades na implementação de sistemas
usando grau de crença:
como as probabilidades devem ser interpretadas
como elas podem ser combinadas umas com as outras como eventos separados (dependentes) podem ser
tratados de modo que a mesma evidência não conte mais de uma vez
quanto esforço deve ser gasto para difundir mudanças
de probabilidade por todo os sistema
A B, crença P1 B C, crença P2
E se a confiança em A mudar, B e C também devem mudar
Conhecimento com Incerteza
(9)
Incerteza muda o caminho dos agentes para
tomar decisões
plano A90 plano A120
Preferências entre diferentes possibilidades
Teoria da decisão
teoria da probabilidade + teoria da utilidade
Linguagem para representar e raciocinar
com conhecimento incerto:
a natureza das sentenças com o grau de crença a dependência do grau de crença na experiência
do agente
Extensão da lógica proposicional
Proposições
(1) Grau de crença são aplicados as proposições
Variáveis randômicas
parte do mundo inicialmente desconhecidas
Domínio das variáveis randômicas:
booleana ou proposicional:
Febre <true, false>
discreta: <finito ou infinito>
Mês <Janeiro, ..., Dezembro>
contínua:
Temperatura [0, 1] Temperatura = 25,6
Eventos atômicos
Especificação completa do estado do
mundo cujo agente está incerto
atribuição de valores para todas as variáveis
do mundo
Exemplo: as variáveis do meu mundo
gripe: verdadeiro ou falso
dor de garganta: verdadeiro ou falso
Grau de crença (probabilidade)
A dependência do grau de crença na
experiência do agente é refletida:
probabilidade a priori (incondicional) probabilidade condicional
Probabilidade incondicional
(1)
A priori (incondicional)
calculado antes do agente receber percepções
(evidências)
Exemplo
P(Gripe=true) ou P(gripe)
= 0.1
Grau de crença na ausência de qualquer
Probabilidade incondicional
(2) A probabilidade de todos os valores possíveis de
uma variável randômica
P(Tempo = sol) = 0.7 P(Tempo = chuva) = 0.2 P(Tempo = nublado) = 0.08 P(Tempo = neve) = 0.02 Ou P(Tempo) = <0.7, 0.2, 0.08, 0.02> Chamada:
Probabilidade incondicional
(3)
A expressão:
P(Tempo, Gripe)
Tabela de probabilidades 4 x 2 entradas
Chamada:
Distribuição de Probabilidade
Conjunta
Conjunto completo das variáveis Tempo,
Dor de Garganta e Gripe:
Distribuição de Probabilidade Conjunta
Completa
Probabilidade condicional
(1) Calculado de acordo com as evidências
disponíveis
evidências: percepções que o agente recebeu até um
dado momento
Exemplo:
P(gripe | dor de garganta) = 0.8 P(gripe | ¬dor de garganta) = 0.2
Se o paciente tem dor de garganta e nenhuma
P(gripe | dor de garganta)= 0.8
dado que dor de garganta é tudo que conheço,
a chance de gripe (vista por mim) é de 80%
Errado
“se tenho dor de garganta então 80% de estar
de gripe”
Se sabemos mais, isto é, a evidência da
gripe é também observada, então:
P(gripe | dor de garganta, gripe) = 1
OBS:
a nova evidência pode ser inútil
P(gripe | dor de garganta, lua cheia)
= P(gripe | dor de garganta)
= 0.8
Probabilidade incondicional
um caso especial da probabilidade condicional: P(gripe | ) = P(gripe)
Podem ser definidas em termos de probabilidades
incondicionais
Probabilidade condicional (a posteriori) de A dado que B
ocorreu é definida por
P(A | B) = P(A ^B)
, quando P(B) > 0P(B)
Pode também ser escrita (mais natural)
P(A ^
B) = P(A |
Β
) P(B)
- Regra do produtoB forma um “contexto” para o evento A
Também pode ser escrita:
P(A ^
B) = P(B |
Α
) P(A)
Axiomas da probabilidade
(1)
Semântica das declarações probabilísticas
0 ≤ P(a) ≤ 1
P(true) = 1 e P(false) = 0
Probabilidade da disjunção
Axiomas da probabilidade
(2)
Distribuição de Probabilidade Conjunta em
qualquer conjunto de variáveis deve ser
1
Se for inconsistente um agente não pode
Inferência probabilística
(1) Usando Distribuição de Probabilidade Conjunta
Completa
base de conhecimento
Um modelo probabilista de um domínio consiste
de um conjunto de variáveis aleatórias que podem assumir valores particulares com certas
Inferência probabilística
(2)0.576
0.144
0.064
0.016
¬gripe0.008
0.072
0.012
0.108
gripe ¬febre febre ¬febre febre ¬dor de garganta dor de garganta• Três variáveis booleanas:
• Tabela de 2 x 2 x 2
Inferência probabilística
(3) Os eventos atômicos são mutuamente exclusivos
e coletivamente exaustivos (axiomas da probabilidade)
Para o exemplo acima anterior
a soma de todas as probabilidades = 1.0
Probabilidade incondicional
P(gripe)
= 0.108 + 0.012 + 0.072 + 0.008
= 0.2
Inferência probabilística
(4)
Probabilidades incondicional:
P(gripe ν dor de garganta)
= 0.108 + 0.012 + 0.072 + 0.008 +
0.016 + 0.06
Inferência probabilística
(5) Probabilidade de estar gripado dado uma dor
de garganta:
P(gripe | dor de garganta)
= P(gripe ^ dor de garganta) P(dor de garganta)
= 0.108 + 0.012
0.108 + 0.012 + 0.016 + 0.064
Inferência probabilística
(6) Probabilidade de não se estar gripado dado
uma dor de garganta:
P(¬gripe | dor de garganta) = P(¬gripe ^ dor de garganta) P(dor de garganta)
= 0.016 + 0.064
0.108 + 0.012 + 0.016 + 0.064
Inferência probabilística: problemas
Problema real:
Enorme quantidade de variáveis randômicas Variáveis discretas, e também contínuas!
Para um domínio com n variáveis booleanas O(2n) tamanho da tabela
O(2n) tempo de processamento da tabela Milhares de variáveis randômicas
Tabela de distribuição de probabilidade conjunta é
Independência
(1) Pela tabela anterior
adicionar uma quarta variável: Tempo
P(Dor de garganta, Febre, Gripe, Tempo) 32 entradas
Qual a relação entre:
P(dor de garganta, febre, gripe)
Independência
(2)P(dor de garganta, febre, gripe, Tempo = sol)
= P(Tempo = sol | dor de garganta, febre, gripe) * P(dor de garganta, febre, gripe)
Logo, se pode deduzir:
P(Dor de garganta, Febre, Gripe, Tempo)
= P(Tempo) P(Dor de garganta, Febre, Gripe)
Regra do produto
= P(Tempo = sol | dor de garganta, febre, gripe)
Independência
(3) Tabela original de 32 entradas
Com a independência de proposições:
uma tabela de 8 entradas e outra de 4 entradas
Reduzem as informações necessárias para
especificar a distribuição de probabilidade conjunta
Difícil separar conjuntos de variáveis por
Inferência Bayesiana
(1)
A teoria da probabilidade adota a frase
epistêmica “...posto que C é conhecido”
como uma primitiva da linguagem.
Sintaticamente isto é denotado por:
P(A | C) = p
Inferência Bayesiana
(2)
Esta frase combina as noções de
conhecimento e crença pela atribuição à
A de um grau de crença p, dado o
conhecimento de C
C é chamado de “contexto da crença em
A”, e a notação P(A | C) é chamada
O teorema de Bayes provê a base para o tratamento
da imperfeição da informação
ele computa a probabilidade de um dado evento, dado um
conjunto de observações
A regra de Bayes expressa as probabilidades
incondicionais em termos das probabilidades condicionais (mais fáceis de obter/estimar)
Permite obter probabilidades desconhecidas a partir de
probabilidades conhecidas
Inferência Bayesiana
(4) Seja:
P(Hi | E)
a probabilidade de que a hipótese Hi seja
verdadeira dada a evidência E.
P(E | Hi)
a probabilidade que a evidência E será
observada se a hipótese Hi for verdadeira.
P(Hi)
a probabilidade “a priori” que a hipótese Hi é
veradeira na ausência de qualquer evidência específica
Inferência Bayesiana
(5)
O teorema de Bayes é formulado como:
P(Y | X) = P(X | Y) * P(Y)
P(X)
A probabilidade condicional, P(Y | X), dos
eventos X e Y pode ser vista como uma
quantificação da relação de causa e efeito
entre X e Y:
Inferência Bayesiana
(6) Para o caso de termos mais de uma evidência:
P(Y | X, e )
= P(X | Y, e) * P(Y, e) P(X | e)
Aplicação da Regra de Bayes:
Diagnóstico Médico
• Seja: M = doença meningite S = rigidez no pescoço • Um Doutor sabe: P(S | M) = 0.5 P(M) = 1/50000 P(S) = 1/20 P(M|S) = P(S|M)P(M) P(S) = 0,5*(1/50000) = 0,0002 1/20 A probabilidade de uma pessoa ter meningite dado que ela está com rigidez no pescoço é 0,02% ou ainda 1 em 5000.Diagnóstico de roubo
Temos:
P(alarme | roubo) = 0,95 P(alarme | ~roubo) = 0,01 P(roubo) = 0,0001 Então:
P(roubo | alarme) = 0,00941 = 0,9% Este valor pode ser intuitivamente entendido
quando verificamos que as chances de haver um roubo e o alarme tocar são muito pequenas em relação às chances de haver um alarme falso.
Probabilidade Condicional e Independência
(1) Informações probabilísticas são interessantes na
seguinte forma
P(efeito | causa)
Duas ou mais evidências (usando regra de Bayes)
P(dor_no_braço ^ braço_inchado | braço_quebrado)
É necessário conhecer as probabilidades
condicionais das conjunções para cada valor de
braço_quebrado
duas variáveis: 2 2
Probabilidade Condicional e Independência
(2)
Pode-se tentar simplificar a expressão
através de afirmações adicionais sobre o
domínio
a noção de independência
dor_no_braço
e
braço_inchado
não são
independentes
Cada uma é causada diretamente pelo
braço_quebrado
, mas nenhuma tem efeito
direto na outra
Probabilidade Condicional e Independência
(3)
Esta propriedade é escrita como
P(dor_no_braço ^ braço_inchado|braço_quebrado) = P(dor_no_braço|braço_quebrado)
P( braço_inchad|braço_quebrado)
Esta expressão significa
a independência condicional de dor_no_braço e
Podemos processar cada pedaço
separadamente
Independência condicional é crucial para o
funcionamento eficaz de sistemas
probabilísticos
Probabilidade Condicional e Independência
(5) Seja X e Y independentes
P(X | Y,Z) = P(X|Z)
Isso quer dizer que se o objetivo é saber a
probabilidade de X então tanto faz o valor de Y se você já sabe o valor de Z
Exemplo: Trovão é condicionalmente
independente de Chuva, dado Relâmpago:
P(Trovão | Chuva, Relâmpago) = P(Trovão | Relâmpago)
Uma outra equação que pode ser usada
P(Dor de garganta, Febre, Gripe) =P(Dor de garganta, Febre | Gripe) P(Gripe)
=P(Dor de garganta | Gripe) P(Febre | Gripe) P(Gripe)
Para todos os n sintomas que são
condicionalmente independentes dado
gripe, o tamanho da representação é:
O(n), ao invés de O(2n)
Diagnóstico de investimento
(1) Supondo as evidências: e1 = solteiro e2 = salário_alto e3 = jovem Apoiam as hipóteses: h1 = investidor_de_alto_risco h2 = investidor_de_baixo_risco Sendo mutualmente exclusivas e exaustivas:
P(h1 ^ h2) = 0 P(h1) = 1 - P(h2)
Diagnóstico de investimento
(2) Assumindo os conhecimentos do especialista,
que estima as probabilidades posteriores:
P(H=h1) = 0.3
P(E=e1|H=h1) = 0.6 P(E=e2|H=h1) = 0.2 P(E=e3|H=h1) = 0.5
Diagnóstico de investimento
(2) Assumindo os conhecimentos do especialista,
que estima as probabilidades posteriores:
P(H=h2) = 0.7
P(E=e1|H=h2) = 0.3 P(E=e2|H=h2) = 0.8 P(E=e3|H=h2) = 0.2
Regra de Bayes: Problemas
(1) Este tipo de método precisa trabalhar com um
número MUITO grande de probabilidades ( P(Hi) e P(Ej/Hi) ) para cada evidência Ej e hipóteses Hi
Dificuldade em se estimar estas probabilidades a
Regra de Bayes: Problemas
(2) A regra de Bayes assume que os antecedentes Ei
são independentes. Isto nem sempre é verdadeiro no caso das doenças, posto que alguns sintomas poderiam ser evidência de outros
A base de conhecimento tem que ser completa
todas as evidências relevantes às hipóteses
consideradas devem estar explícitas na base de conhecimento
Regra de Bayes: Problemas
(3) Se as probabilidades a priori e as probabilidades
condicionais são baseadas em contagens de
freqüências e estatísticas, temos que assegurar que o número de amostras é representativo o suficiente para obter probabilidades precisas:
algumas vezes as bases de dados não são corretas e
precisas o suficiente para que sua soma seja igual a 1.0
Solução:
Redes de Crenças:
Referências
Russel, S, & Norvig, P. (1995). Artificial