• Nenhum resultado encontrado

Sistema Especialista Neuro-Fuzzy

2. Fundamentação Teórica

2.4 Sistemas "Fuzzy"

2.4.2 Sistema Especialista Neuro-Fuzzy

Os benefícios na utilização de sistemas "fuzzy" levam a uma representação de conhecimento adequada baseada na forma de regras Se/Então com antecedentes e conseqüentes "fuzzy". Apesar disto os problemas crescem quando conceitos "fuzzy" tem que ser representados por graus de pertinência, os quais garantem que um sistema "fuzzy" trabalhe da forma como se espera. Por isto é muito promissor ter procedimentos de aprendizado, que podem determinar estes valores automaticamente. As vantagens de uma combinação dos sistemas "fuzzy" com RNA são óbvias, pois as desvantagens de ambos, i.e., a conduta de caixa-preta das RNA e os problemas de determinação dos valores de pertinência para sistemas "fuzzy", podem então ser evitados. Uma combinação de ambas as técnicas pode ser um caminho para amenizar os problemas anteriormente citados. A integração destas duas abordagens complementares resulta em um novo termo científico chamado de "Neuro-Fuzzy", cuja aplicação é normalmente utilizada para desenvolvimento do que se conhece atualmente de Sistemas "Neuro-Fuzzy".

Normalmente se encontra na literatura dois tipos de combinação entre RNA e sistemas "fuzzy", que têm a finalidade de otimizar um sistema "fuzzy". Na primeira abordagem, RNA e sistema "fuzzy" trabalham independentemente de cada um. A combinação conduz para a determinação de certos parâmetros pela RNA, ou um algoritmo de aprendizado de RNA, serão utilizados pelo sistema "fuzzy". Isto pode ser feito de maneira "on-line" ou "off-line" durante o uso do próprio sistema "fuzzy". No segundo tipo de combinação se define uma arquitetura homogênea, usualmente similar à estrutura de uma RNA. Isto pode ser feito pela interpretação de um sistema "fuzzy" como um tipo especial de RNA, ou por implementar um sistema "fuzzy" utilizando uma RNA. Este tipo de combinação é também denominado de Sistema "Neuro-Fuzzy" Híbrido. Maiores detalhes sobre estes assuntos também podem ser encontrados em Jang, Sun e Mizutani [JAN97] e em Nauck, Klawonn e Kruse [NAU97].

2.5

Verdade, Acaso e Estatística

Como colocado por Holtz [HOL91] testes de VERDADEIRO ou FALSO são uma parte básica de toda programação de computadores. Para se conceitualizar IA, precisa-se tratar com as condições menos finitas que eventualmente se igualarão (ou serão igualadas) a VERDADEIRO ou FALSO. Com este conceito em mente, o único tipo de verdade absoluta é aquele que é implicado pela premissa da qual o mesmo é o predicado. Expressando em linguagem matemática, pode-se dizer que se a premissa x é igual a y, e y é igual a z, então x tem de ser igual a z. Esta é uma verdade absoluta nos limites da premissa que afirma que x == y e que y == z. Se qualquer uma das premissas não for verdadeira, então toda a verdade absoluta pode também não ser verdadeira. Consequentemente, todas as verdades absolutas são aquelas implicadas, e.g., se um levantamento estatístico confiável mostrar que para cada quinze pessoas de uma determinada população uma está resfriada e que a população fixa é de 50.000 pessoas, então pode-se afirmar que nesta população existem 1.000 pessoas com resfriado. A precisão, ou verdade absoluta das varias implicações podem sofrer questionamentos. Na IA, em campos relacionados com sistemas especialistas, a premissa é o aspecto mais importante, porque a precisão da verdade é predicado dela.

Os seres humanos tendem a chegar às verdades baseados em premissas incompletas. Alguns são muito bons em obter verdades baseados em dados incompletos e questionáveis. Aqueles que são bons nisto são freqüentemente chamados de especialistas em suas áreas de atuação. Diz-se que a pessoa tem "jeito ou habilidade" para tirar as conclusões mais corretas a partir de um conhecimento apenas superficial das premissas. Na programação de um SE é necessário descobrir mais coisas sobre este "jeito". Normalmente isto implica aprender estatística.

A medida que indica a probabilidade de uma premissa ser verdadeira é chamada inferência estatística, e suas raízes originam-se em séculos passados. Ao examinar-se uma premissa, precisa-se primeiro examinar os objetos sobre os quais a premissa esta baseada, se uma premissa afirma que o lançamento de um dado tem uma possibilidade em seis de cair sobre qualquer um dos lados, precisa-se dar uma olhada nos dados para se determinar se tal premissa é lógica. Neste exemplo se verifica que o dado realmente tem seis lados diferentes. Quando lançado, a premissa sob análise assegura que qualquer lado de um dado qualquer tem uma possibilidade em seis de sair virado para cima. Por conseqüência, é lógico se afirmar que existe uma possibilidade em seis de que qualquer lado em particular

do dado saia voltado para cima. Esta premissa pode ser provada num grau bastante alto jogando-se o dado milhares de vezes por qualquer pessoa46.

Os seres humanos, de quem se diz possuírem "verdadeira inteligência" (em oposição ao tipo artificial), calculam estas possibilidades de eventos aleatórios que ocorrem todos os dias de suas vidas. Se alguém tiver que se dirigir até a cidade para fazer compras e tiver de voltar num certo tempo imediatamente avaliará a probabilidade de ocorrências tais como engarrafamento no trânsito, a loja ou lojas que mais provavelmente estarão mais vazias, etc. Todos estes juízos são baseados em certas premissas que se acumulam através de experiências passadas. E o "levantamento" ou tomada de amostras sobre as quais tais premissas se baseiam pode não ter qualquer relação direta com a tarefa a ser enfrentada, e.g., se alguém estiver há poucos dias em uma cidade e precisar ir ao mercado fazer compras como que visualizará esse evento. Em outras palavras, formulará uma idéia muito boa quanto ao que esta ida ao mercado acarretará. Conseguirá informações sobre o tráfego local baseado naquilo que tiver visto desde a sua chegada na cidade. Se este alguém não tiver recolhido qualquer informação do tráfego da localidade, então provavelmente admitirá a premissa de que será igual ou parecido ao de outras localidades que já tenha visitado. Este alguém normalmente se concederia um pouco mais de tempo baseado no fato de que tem dados incompletos. Esta série de exercícios lógicos continuaria com a escolha do mercado, escolha do carrinho de compras, escolha de produtos, etc.

A fim de se programar com sucesso muitos aspectos da inteligência, é necessário definir claramente, passo a passo, o que é a inteligência. Neste exemplo, a inteligência envolve a capacidade de se trabalhar logicamente com as ocorrências não experimentadas, baseado em dados coletados em situações similares. Isto envolve, também, um cálculo de probabilidades. O seres humanos (como exemplificado) calculam probabilidades todos os dias, mas o fazem de forma tão natural que a maioria não se dá conta de que o fazem.

2.5.1 Noções de Probabilidade - Conceitos Preliminares

Neste item, são apresentados alguns conceitos introdutórios da teoria da probabilidade.

Notação e Axiomas Básicos

Por simplificação, suponha-se que as variáveis aleatórias possam assumir somente 2 valores: verdadeiro ou falso. Se A é uma variável aleatória, então p(A) denota a probabilidade de que A seja verdadeiro e p(¬A) denota a probabilidade de que A seja falso.

46

Além disso, p(A) denotará o vetor [p(A) p(¬A)]. Também são utilizados conectivos proposicionais para denotar probabilidades mais complexas, como por exemplo p(A

B) representa a probabilidade de que A seja verdadeiro ou B seja verdadeiro.

A probabilidade p(A) recebe o nome de probabilidade a priori e corresponde a probabilidade de que a variável aleatória A seja verdadeira sem contar com nenhuma informação adicional.

Axiomas básicos da teoria das probabilidades, se A e B são variáveis aleatórias, então:

0í p(A)í 1 (I)

• p(verdadeiro) = 1 - p(falso) = 1 (II)

• p(A) + p(¬A) = 1 (III)

p(A

B) = p(A) + p(B) - p(A

B) (IV)

Se A e B são eventos aleatórios, então p(A

B) denota a matriz de probabilidade conjunta de A e B:

(

)

(

)

(

)

(

) (

)

    ¬ ∩ ¬ ¬ ∩ ∩ ¬ ∩ = ∩ B A p B A p B A p B A p B A p

Em geral, se existirem n variáveis, a matriz de probabilidades conjunta será uma matriz n-dimensional com 2nvalores, no caso de que todas as proposições sejam binárias. No caso geral, supõe-se que existam variáveis V1,..., Vn. Por outro lado, se V é uma variável aleatória binária, será representada com Voa proposição V = falso e V1a V = verdadeiro. A

matriz de probabilidade conjunta especificará todos os valores de probabilidade do tipo:

(

n

)

i i

V

n

V

p

1

∩...∩

1

Onde ij pode assumir os valores 0 e 1. Esta matriz permite calcular a probabilidade

marginal de qualquer subconjunto de variáveis.

Por exemplo, se P é a matriz de probabilidades:

( )

(

)

=

=

falso V n i 1 i j 0 j 1 n

V

...

V

p

V

P

Onde o somatório do lado direito especifica somar todos os elementos da matriz para os quais Vjé falso.

Experimentos Não-Determinísticos

Um experimento "não-determinístico" é todo procedimento que ao ser realizado terá como resultado valores aleatórios.

A definição precisa deste conceito é mais complexa que a sua compreensão através de exemplos:

• Jogar uma moeda 6 vezes e observar o número de caras obtido;

• Peças fabricadas em série em uma linha de produção e verificar quantas são defeituosas num período de tempo X.

Pode-se caracterizar um experimento aleatório quando as seguintes características são observadas (conforme Meyer [MEY91]):

î

Cada experimento poderá ser repetido indefinidamente sob condições essencialmente inalteradas;

î

Embora não se possa afirmar que um resultado em particular ocorrerá, pode-se descrever o conjunto de todos os resultados possíveis (cara ou coroa, defeituosa ou não); e,

î

Quando o experimento for executado repetidamente, os resultados individuais parecerão ocorrer de forma acidental. Contudo, quando o experimento for repetido um grande número de vezes, uma configuração definida ou regularidade surgirá. É esta regularidade que torna possível construir um modelo matemático preciso, com o qual se analisará o experimento (50% de caras, 50% de coroas, ...).

O Espaço Amostral

Para cada experimento considerado, define-se como espaço amostral o conjunto de todos os resultados possíveis. Normalmente se representa esse conjunto por S.

Considerando o experimento "Jogar uma moeda 6 vezes e observar o número de caras obtido" o espaço amostral será: S = {0, 1, 2, 3, 4, 5, 6}, o que corresponde a nenhuma cara (0), uma cara (1) e assim por diante até a possibilidade máxima 6 (nas seis jogadas sair cara em todas as jogadas).

Um espaço amostral está sempre associado a um experimento que não é necessariamente numérico (por ex. Jogar uma moeda 6 vezes e observar a seqüência de faces obtida).

Eventos

Um evento representa uma ou mais ocorrências dentro do espaço amostral S, ou seja, um evento é um subconjunto de um espaço amostral S. O próprio espaço amostral pode ser considerado um evento. Qualquer resultado individual pode também ser tomado como um evento. Para o experimento da moeda o evento (2) significa que duas caras são obtidas dentro do experimento da moeda. O evento (3) significaria que três caras são obtidas dentro do experimento da moeda e assim por diante.

Freqüência Relativa

Freqüência relativa é a razão entre um evento e o número de repetições do experimento. Por exemplo: o evento "cara" em relação ao experimento "jogar moeda", se jogarmos 10 vezes a moeda e ocorrerem 3 "caras" a freqüência relativa será: 0,3 ou 30%.

Porém se aumentar-se o número de vezes que a moeda é lançada, haverá uma tendência da freqüência relativa se estabilizar próxima a algum valor numérico. Isto é denominado regularidade estatística.

Probabilidades e Eventos sem Experimentação

As probabilidades se associam a eventos. Por exemplo, em um jogo de roleta se pode associar uma probabilidade ao evento "a bola cai no zero". O enfoque clássico da probabilidade supõe que as probabilidades são inerentes a natureza física do mundo. Por exemplo, ao lançar uma moeda os valores da probabilidade de que caia cara ou coroa são propriedades inerentes à física da moeda. Sob esta interpretação, as probabilidades são chamadas frequentistas e com base em experimentos se pode estimar estas probabilidades. Por exemplo, pode-se lançar uma moeda mil vezes e estimar a probabilidade de que saia cara baseado no número de vezes que saiu cara.

O enfoque clássico de probabilidades é problemático em situações nas quais os experimentos não são possíveis. Por exemplo, o evento no próximo ano haverá um golpe de estado em Cuba tem uma probabilidade associada. Entretanto, não há forma de experimentar e medir freqüências associadas a este evento, pois a situação política do próximo ano em Cuba é única.

Como alternativa, as probabilidades Bayesianas consideram as probabilidades como subjetivas e associadas ao conhecimento pessoal das pessoas. A probabilidade de um evento é, sob o enfoque Bayesiano, um grau de crença na probabilidade de que o evento ocorrerá, sob o ponto de vista de algum indivíduo. Uma vantagem da probabilidade Bayesiana é que não é necessário associar experimentos para estimar a probabilidade associada a eventos.