• Nenhum resultado encontrado

Conceitos de Probabilidade

É sabido que certos fenômenos possuem determinadas propriedades que se aproxi- mam de um valor médio constante dado que o número de observações desse determinado fenômeno cresça, e que este valor permanece o mesmo em observações futuras. Estabeleci- dos esses pressupostos, é possível afirmar que a teoria de probabilidade tem o propósito de descrever e predizer tais médias em termos de probabilidade de eventos. A probabilidade de um determinado evento A seria aproximadamente P (A):

P (A) ≈ nA

n , (2.1)

dado que o número n de observações suficientemente grande.

Esta é, porém, uma interpretação imprecisa pois os termos “aproximadamente” e “suficientemente grande” não possuem um significado exato, contudo este nível de imprecisão nos dá uma definição em termos gerais suficiente para o entendimento do significado de probabilidade.

Segundo (PAPOULIS; PILLAI, 2002) ao aplicar a teoria de probabilidade a fenô- menos reais deve-se observar e distinguir os seguintes passos:

Passo 1 (físico) - Determina-se por um processo inexato a probabilidade P (Ai) de

um determinado evendo Ai.

Esse processo pode ser baseado na relação apresentada na Equação 2.1 entre a probilidade e a observação: a amostra P (Ai) é igual a taxa de observação nA/n. Esta

também pode ser feita através de “intuição” fazendo uso de certas simetrias: se, de um total de n possíveis resultados, existem nAresultados favoráveis ao evendo A, logo P (A) = nA/n.

Passo 2 (conceitual) - Assume-se que a probabilidade satisfaz certos axiomas, e por dedução determina-se a probabilidade P (Ai) de certo evento Ai a probabilidade P (Bj) de

outros eventos Bj.

Passo 3 (físico) - Faz-se uma predição física baseado no número P (Bj) obtido. Este

passo pode se valer da Equação2.1 aplicada de forma reversa: se fizermos um experimento n vezes e um evento B ocorre nB vezes, logo nB ≈ nP (B).

Se, por exemplo, um dado juto for rolado 1000 vezes, a predição seria de que números pares vão representar 500 ocorrências para esse caso.

2.4. Conceitos de Probabilidade 29

Ao lidar com teoria de probabilidade é preciso ter atenção na separação entre os dados que são determinados de maneira empírica e os resultados que são deduzidos de maneira lógica.

2.4.1

Variáveis Aleatórias

Uma variável aleatória é um número X(ζ) que está asscoiada a todo resultado ζ de um determinado experimento. Esse número pode representar uma configuração específica de eventos quaisquer aos quais se esteja interessado mensurar, exemplo: a chance da soma dos resultados de dois dados ser 7, o custo de um determinado componente, a tendência de uma determinada ação na bolsa de valores.

Numa definição um pouco mais rigorosa, uma variável aleatória é uma função cujo domínio é o conjunto S de todos os resultados do experimento.

Nesse sentido uma função pode ser f (x) qualquer pode ser definida como: Uma regra de correspondência entre os valores de x e f . Onde os valores da variável independente x do conjunto Sx são alocadas em um eixo x chamado de domínio da função enquanto os

valores da variável dependente f do pertencente ao conjunto Sf alocados em um eixo f

chamado de contradomínio da função. A regra que determina a correspondência entre x e f pode ser das mais diversas, assumindo a forma de uma reta, de uma curva ou de uma fórmula a exemplo, f (x) =x3− 2.

De forma mais geral uma função pode ser definida como: dado dois conjunto de números Sx e Sf. Para cada t ∈ St associa-se um número f (x) pertencente ao conjunto Sf.

Assim o conjunto Sx é o domínio da função e Sf o contradomínio.

Dada essa definição de função podemos apresentar um exemplo de variável aleatória como: dado o lançamento de 3 dados justos, considera-se que valores pares são atribuídos um número positivo +1 e ímpares valores negativos −1, assim:

X(f1) = X(f3) = X(f5) = −1

X(f2) = X(f4) = X(f6) = +1

.

Assim sendo, dado um determinado experimento cujo espaço amostral é S , um subconjunto deste chamado de eventos e uma probabilidade associada a tais eventos. Para cada resultado ζ desse experimento, associa-se um número X(ζ). Dessa forma cria-se uma função X cujo domínio é o conjunto S e o contradomínio um intervalo numérico. Tal função será chamada de variável aleatória dado que esta segue determinadas regras, tais como:

30 Capítulo 2. Referencial Teórico

2. A probabilidade dos eventos X = +∞ e X = −∞ são iguais a zero.

2.4.2

Processo Estocástico

Dado o conceito de variável aleatória como: X sendo uma regra de acossiação para cada resultado ζ de um determinado experimento S com um número X(ζ). Um processo estocástico X(t) seria uma regra associativa de todo ζ a uma função X(t, ζ). Assim um processo estocástico seria uma família de funções temporais dependentes de um parâmetro ζ ou, de forma equivalente, uma função em t e ζ. Onde o domínio de ζ é o conjunto de todos os resultados experimentais e o domínio de t é o conjunto R dos números reais.

Caso R seja um intervalo de números reais então X(t será uma série temporal contínua. E se R for um conjunto de número inteiros, então X(t) é uma série temporal discreta.

Usualmente ao se referir a um processo estocástico usa-se a notação X(t), ou seja apresenta-se a variável aleatória em função do tempo, omitindo-se o ζ. Dado isso as seguintes interpretações são cabíveis acerca de X(t):

1. X(t) é um conjunto de funções do tipo X(t, ζ). Nesta interpretação, t e ζ são variáveis.

2. X(t) é um única função ou a amostra de determinado processo. Nesse caso, t é uma variável e ζ é fixo.

3. X(t) é uma variável aleatória igual ao estado de um dado processo no instante t. 4. X(t) é um número, no caso onde t e ζ são fixos.

De foma simplificada um processo estocástico discreto é uma sequência ...X1, X2, X3...

de variáveis aleatórias Xn indexadas pelo tempo do tipo: ...t1, t2, t3... Considerando-se o

conjunto de series temporais geradas por um determinado processo tem-se o que se pode chamar de linguagem estocástica onde cada uma destas series ocorre com uma determinado probabilidade.

No contexto dos protocolos de rede o conjunto de caracteres que formam um pacote pode ser interpretado como um série temporal, assim sendo o protocolo de rede em si pode ser tratado como um processo estocástico, transmitindo pacotes na linguagem do protocolo com determinada probabilidade

2.4.3

Modelos de Markov

Dado o conceito de processo estocástico, tem-se que uma cadeia de Markov seria uma forma de representação deste que parte da premisa de que a probabilidade condicional de um estado futuro Xn+1 depende apenas do estado presente Xn assim como apresentado

2.4. Conceitos de Probabilidade 31

em (NORRIS, 1998) temos que:

P (Xn+1 = x|Xn= xn, . . . , X1 = x1) = P (Xn+1= x|Xn= xn), (2.2)

dado que X1. . . Xn é uma sequência de variáveis aleatórias que representam os estados do

processo ao longo do tempo.

Um processo estocástico qualquer que satisfaça a Equação2.2é chamado de processo de Markov. Assim como exposto por (NORRIS,1998).

Em um processo dito de Markov as transições entre estados são aleatórias, e ocorrem com uma probabilidade representada por meio de uma matriz de transições normalizada T do tipo |X| × |X|. Onde |X| é o número de estados. Dessa forma a probabilidade de haver uma transição do estado i para o estado j é caracterizada por Tij. Como exemplo,

um cadeia de Markov com três estados X = A, B, C tem uma matriz de transição do tipo:

     α 1 − α 0 0 β 1 − β 1 − δ 0 δ      ,

onde α, β, δ ∈ [0, 1] são parâmetros. Essa matriz de transição corresponde graficamente a máquina de estados da Figura 4.

Figura 4 – Representação gráfica de uma cadeia de Markov de um processo arbritario.

A B C 1 − α α 1 − β β 1 − δ δ

Fonte: Adaptado de Norris (1998).

Dadas suas limitações, cadeias de Markov representam apenas um determinado subgrupo de processos estocásticos. Um exemplo típico dessa limitação é o processo de paridade que gera números binários com um número consecutivo de “1” delimitados por “0” onde a quantidade de “1” é sempre par, dessa forma os binários: 0110 e 011110 fariam parte dessa linguagem; mas o binário: 010 não. Tal processo não possui nenhum modelo de

32 Capítulo 2. Referencial Teórico

Markov de ordem finita que o equivalha como provado em (CRUTCHFIELD; FELDMAN,

2003).

2.4.4

Modelos Escondidos de Markov

Um modelo escondido de Markov é o um tipo de cadeia de Markov onde os estados, denotados como S, não são observadas diretamente mas sim de forma indireta através dos símbolos de mensuração Xn. Onde cada símbolo observado é gerado a partir de uma

transição entre os “estados escondidos” e estes seguem uma determinada distribuição de probabilidade.

Dado que múltiplas transições podem gerar o mesmo símbolo observado, as transi- ções internas e os estados do sistema em questão tipicamente não são revelados diretamente através de observação. Apesar disso assim como exposto em (RABINER, 1989) diversas métricas interessantes podem ser calculadas dada um modelo escondido de Markov.

Entre estas métricas estariam a probabilidade de se observar determinada sequência de caracteres, ou mesmo dada uma sequência de caracteres qual seria o estado escondido com maior probabilidade de gerar esta e finalmente qual transição de estados e probabilidade de missão de símbolo maximiza a probabilidade se gerar uma determinada sequência de caracteres.

Dado que na seção anterior foram introduzidos tanto o processo de partida quanto a limitação das cadeiras de Markov, temos na Figura 5um modelo escondido de Markov que representa tal processo, nesta figura usa-se a virgula como separador decimal.

É perceptível a diferença quanto à capacidade de representação dos modelos, dado que as informações semânticas passam a ser independentes dos estados internos da máquina, desta forma os modelos escondidos de Markov podem representar uma classe mais abrangente de processos estocásticos que as cadeias de Markov.

Figura 5 – Representação de um modelo escondido de Markov de dois estados para o processo de paridade.

A B

1|0, 5 0|0, 5

1|1, 0

Documentos relacionados