• Nenhum resultado encontrado

ESTATÍSTICA APLICADA AO ESPECTRO DE UM GRAFO

N/A
N/A
Protected

Academic year: 2021

Share "ESTATÍSTICA APLICADA AO ESPECTRO DE UM GRAFO"

Copied!
12
0
0

Texto

(1)

ESTATÍSTICA APLICADA AO ESPECTRO DE UM GRAFO

Rachel Abrahão Ribeiro

Escola Nacional de Ciências Estatísticas, ENCE/IBGE rachelabrahaoribeiro@hotmail.com

Carla Silva Oliveira

Escola Nacional de Ciências Estatísticas, ENCE/IBGE

carlasilva@ibge.gov.br

Resumo

Estudamos o comportamento dos autovalores da matriz de adjacência dos grafos k-regulares, das árvores e de alguns unicíclicos, uma vez que essas famílias de grafos não possuem espectros conhecidos. Utilizando média e variância de uma variável aleatória, conseguimos uma limitação para o percentual mínimo de autovalores em determinados intervalos da reta real, intervalos esses, limitados em função do número de vértices ou do grau máximo do grafo.

Palavras-chave: espectro de um grafo, média e variância

Abstract

We have studied the behavior of the eigenvalues of the adjacency matrix of the k-regular

graphs, the trees and some unicycles since these families of graphs don’t have spectrum

known. Using average and variance of a random variable, we get a limitation for the

minimum percentual the eigenvalues in determined intervals of a real line. These

intervals are limited due to the number of vertices or the maximum degree of a graph.

Key words: spectrum of a graph, average and variance

(2)

1 – Introdução

A fundamentação teórica da Teoria Espectral dos Grafos começou por volta de 1950, baseando-se principalmente na aplicação de técnicas algébricas em grafos para transformar propriedades de grafos em propriedades algébricas e utilizar resultados e métodos da Álgebra para deduzir teoremas sobre grafos. Este enfoque foi proposto explicitamente por Hoffman (1969) embora já tivesse sido iniciado nos artigos de Wei (1952) e Lihtenbaum (1956). Os livros de Biggs (1993), Cvetkovic´ et al. (1997) e Godsil et al. (2001) são os mais recentes nesta área. Alguns parâmetros da Teoria Espectral dos Grafos têm contribuído muito no fortalecimento da conexão desta área com outras áreas da Matemática e da Ciência da Computação, como por exemplo podemos citar os trabalhos de Chung (1994) e Noga Alon et al (2000).

Neste trabalho, utilizamos conhecimentos da área da Estatística e Teoria das Probabilidades para encontrarmos limitantes para os autovalores de três famílias de grafos: k-regulares, unicíclicos com ciclo de comprimento par e árvores. Tentamos, com isso, estabelecer uma conexão produtiva entre ramos da Matemática Aplicada. Assim, iniciamos a próxima seção com conceitos básicos e resultados da literatura sobre Teoria Espectral dos Grafos e apresentamos na seção 3 os conceitos estatísticos que aqui serão utilizados, para, na seção seguinte, apresentarmos alguns resultados relacionando essas duas teorias. Por fim, apresentamos as considerações finais.

2 – Conceitos e resultados da literatura sobre Teoria Espectral dos Grafos

Consideremos G = (V,E) um grafo simples, não orientado, sem laços ou arestas múltiplas, tendo V como o conjunto de vértices de cardinalidade |V(G)|= n e E como o conjunto de arestas de cardinalidade |E(G)| = m, onde

(

)

2

1

0

m

n

n

. Cada aresta de G é denotada por

( )

v w

e= , , tal que

v

,

w

V

são seus vértices terminais, denominados vértices adjacentes e diz-se que e incide em v e w ou que e é uma aresta incidente em v e em w. O grau de v, d(v), é o

número de arestas incidentes em v e o grau médio de G,

( )

( )

n

v

d

G

d

n i i

=

=

1 . Denota-se, respectivamente, por

( )

G

v V

d

( )

v

i

e

( )

G

v V

d

( )

v

i i i

Δ

=

=

min

max

δ

, os graus mínimo e máximo do grafo G.

A matriz quadrada simétrica de ordem n, A(G)=[aij], para a qual aij = 1, se

(

v

i

,

v

k

)

E

e aij = 0 , se

(

v

i

,

v

k

)

E

, é denominada matriz de adjacência de G. O polinômio característico

de G é dado por

p

G

( )

λ

= det

(

A

λ

I

)

, onde

λ

1

λ

2

...

λ

n−1

λ

n são os autovalores de

A(G), isto é, as raízes de

p

G

( )

λ

, as quais são denominadas autovalores de G. O maior autovalor deste polinômio,

λ

1, é denominado índice do grafo e denotado por ind(G). O espectro de G,

spect G, é definido como sendo uma matriz 2 x s cuja primeira linha é constituída pelos

autovalores distintos de A(G), ordenados em ordem não-crescente e a segunda linha por suas multiplicidades algébricas(número de vezes que o autovalor é raiz do polinômio característico). Assim se

m

A

( )

λ

i são as multiplicidades algébricas, o espectro de G é dado por:

( )

( )

. 1 1 ⎥ ⎦ ⎤ ⎢ ⎣ ⎡ = s A A s m m G spect

λ

λ

λ

λ

K K

(3)

Exemplo 2.1: Considere o grafo G da Figura 2.1.

Figura 2.1: grafo G

Sua matriz de adjacência é

( )

.

0

1

1

1

1

0

0

1

1

0

0

1

1

1

1

0

=

G

A

O polinômio característico de G é dado por

p

G

( )

λ

=

λ

4

5

λ

2

4

λ

. As raízes deste polinômio são

λ

1= 2,5616; λ2 = 0, λ3 = -1 e λ4 = -1,5616, e conseqüentemente o índice do grafo é, ind G =

2,5616 e seu espectro dado por:

.

1

1

1

1

5616

,

1

1

0

561

,

2

=

G

spect

Na literatura existem vários resultados sobre o espectro de um grafo. Alguns desses resultados mostram que se pode obter informações sobre a estrutura do grafo em função dos seus autovalores. A seguir enunciamos alguns resultados que podem ser encontrados em Biggs(1993), Cvetkovic´ et al. (1995) e Godsil et al. (2001).

Teorema 2.1: Seja G um grafo com seqüência decrescente de graus

[

d

( )

v

1

,

K

,

d

( )

v

n

]

e grau médio d(G). Então

( ) ( )

Gd Gind(G)≤Δ(G).

δ

Teorema 2.2: Se G é um grafo conexo k-regular, então k é um autovalor de G com multiplicidade algébrica igual a 1.

Para certas classes de grafos são conhecidos os seus espectros. Dentre eles tem-se:

1 – O espectro do grafo completo

K

né

;

1

1

1

1

=

n

n

K

spect

n

(4)

2 – Para n ímpar, o espectro de

C

né

(

)

=

2

2

1

2

1

cos

2

2

cos

2

2

K

K

π

π

n

n

C

spect

n e para n par, é

(

)

=

2

2

1

2

1

cos

2

2

cos

2

2

K

K

π

π

n

n

C

spect

n .

Teorema 2.3: G é conexo k-regular se, e somente se,

.

1 2

nk

n i i

=

=

λ

Teorema 2.4: Seja G um grafo conexo. Então as seguintes afirmações são equivalentes 1- G é bipartido;

2- se

λ

é um autovalor de G então

λ

também é um autovalor de G com a mesma multiplicidade algébrica que a de

λ

.

Como conseqüência do Teorema 2.4, o grafo bipartido completo

K

a,b tem seu espectro dado por:

.

1

2

1

0

,

+

=

b

a

ab

ab

K

spect

ab

Convém lembrar que toda árvore e todo grafo unicíclico com ciclo de comprimento par são grafos bipartido e portanto seus autovalores são simétricos. Conseqüentemente pelo Teorema 2.1, conclui-se que seus autovalores satisfazem a seguinte desigualdade: −Δ≤

λ

i ≤Δ, ∀i,1≤in.

De acordo com Cvetkovic´ et al. (1990), Hong (1993) e Stevanovic´(2003) podemos encontrar outros limitantes superiores e inferiores para o índice de um grafo como observamos nos resultados a seguir.

Teorema 2.5: Se G é um grafo conexo com n vértices e m arestas então

λ

1

( )

G

2

m

n

+

1

. A igualdade é atingida se, e somente se, G é a estrela

K

1,n1 ou o grafo completo

K

n.

Teorema 2.6: Se G é uma árvore com n vértices então

( )

1

.

1

cos

2

1

+

G

n

n

λ

π

O limite inferior é atingido se, e somente se, G é o caminho

P

n e o limite superior é atingido se, e somente se, G é a estrela

K

1,n−1.

(5)

3 – Noções básicas do Cálculo das Probabilidades

Antes de qualquer coisa, consideremos, de acordo com Meyer(1983), a definição de modelo determinístico como sendo um modelo que estipula que as condições, sob as quais um experimento seja executado, determinam o resultado do experimento. Em contraposição a ele está o modelo não-determinístico ou probabilístico ou, ainda, aleatório, que caracteriza um modelo que, independente das condições, não determina resultados previamente ou, em outras palavras, não admite resultados antes da realização do experimento. Aos fenômenos para os quais modelos não-determinísticos são apropriados, dá-se o nome de experimento aleatório. Como exemplo, podemos citar o lançamento de um dado para a observação do número mostrado na face de cima (experimento 1), ou o lançamento de uma moeda para a observação da face obtida (experimento 2).

Ao conjunto de todos os possíveis resultados do experimento dá-se o nome de espaço

amostral.

Definição 3.1: Para cada experimento ε, define-se o espaço amostral como o conjunto de todos os resultados possíveis de ε. Geralmente representa-se esse conjunto por S.

Como exemplo podemos citar o espaço amostral S1 =

{

1,2,3,4,5,6

}

para o experimento 1, citado anteriormente, ou o espaço amostral S2 =

{

Cara,Coroa

}

para o experimento 2, também já citado. É importante lembrar que ao descrevermos o espaço amostral de um experimento, não especificamos que um resultado individual seja necessariamente um número. Esse é o caso do experimento 2, cujo espaço amostral é constituído por dois nomes, que representam, cada qual, uma das faces da moeda. Entretanto, em muitas situações experimentais, há interesse na mensuração de cada resultado e no seu registro como um número. A partir disso, segue uma das definições de maior relevância no contexto do trabalho.

Definição 3.2: Sejam ε um experimento e S o espaço amostral associado ao experimento. Uma função X, que associe a cada elemento

s

S

um número real, X(s), é denominada variável

aleatória.

Para ilustrar a definição acima, consideremos novamente o experimento 2. Uma função X que associe, por exemplo, a ocorrência de “cara” ao número 0 e a ocorrência de “coroa” ao número 1 é uma variável aleatória. Se, todavia, o resultado s do espaço amostral já constituir uma característica numérica, assim como acontece no experimento 1, basta tomar a função X como sendo a função identidade para que se garanta a existência da variável aleatória.

Definição 3.3: Seja X uma variável aleatória definida a partir de uma experiência aleatória ε. Dizemos que X é uma variável aleatória do tipo discreto se, e somente, se o seu contradomínio é um conjunto finito ou infinito mas numerável de pontos.

Definição 3.4: Seja X uma variável aleatória do tipo discreto e seja

x

i um ponto genérico de seu domínio, tal que

i

=

1

,

2

,

K

,

n

. A cada

x

i associaremos um número

p

i

=

P

(

X

=

x

i

)

denominado probabilidade de

x

i, satisfazendo as seguintes condições:

(6)

2-

(

)

1

;

1

=

=

=

n i i

x

X

P

A probabilidade

p

i

=

P

(

X

=

x

i

)

para

i

=

1

,

2

,

K

,

n

, define o que chamamos de função de

probabilidade da variável aleatória X.

Não é difícil concluir que, tanto o experimento 1 quanto o experimento 2, definem variáveis aleatórias do tipo discreto. Sendo assim, tomemos o primeiro deles como exemplo para ilustrar a Definição 3.4. Seja X a variável aleatória que se identifica ao número obtido na face de cima no lançamento de um dado. Então,

(

)

,

{

1

,

2

,

3

,

4

,

5

,

6

}

.

6

1

=

=

x

i

x

i

X

P

Nesse exemplo, as probabilidades são iguais para todo

x

i, visto que todas as faces têm a mesma chance de caírem voltadas para cima. Além disso, é trivial mostrar que as duas condições associadas à Definição 3.4 são satisfeitas. Muitas vezes, no entanto, determinar essas probabilidades não é algo tão simples assim. Em muitos casos, diversos outros fatores devem ser levados em consideração (como, por exemplo, se o dado é um dado tradicional, se ele está viciado ou não, etc.). O importante, porém, é que a definição de função de probabilidade fique clara, pois é ela que nos leva a um outro conceito: função de distribuição.

A função de distribuição de uma variável aleatória X é definida pela probabilidade do evento

(

Xx

)

e, para calculá-la no ponto x, devemos somar as probabilidades dos pontos que tem probabilidade não nula no intervalo

(

−∞;x

]

, como mencionado na definição abaixo. Definição 3.5: Seja X uma variável aleatória com função de probabilidade

P

(

X

=

x

i

)

. A função

de distribuição de probabilidades de X, no ponto x, é dada por:

( )

=

(

=

)

, ∀ ∈ℜ. ≤ x x X P X F x x i i

Como exemplo, podemos calcular a função de distribuição da variável definida a partir do experimento 1: seja X a variável aleatória que se identifica ao número obtido na face de cima no lançamento de um dado. Então,

( )

,

{

1,2,3,4,5,6

}

.

6 ∀ ∈

= xi xi

X

F Ou seja, a probabilidade de

X ser menor ou igual a 4, por exemplo, é igual ao somatório das probabilidades de X ser igual a 1,

ser igual a 2, ser igual a 3 e ser igual a 4. Como

(

)

(

)

(

)

(

)

6

1

4

3

2

1

=

=

=

=

=

=

=

=

P

X

P

X

P

X

X

P

, temos então que

( )

6

4

=

X

F

, para x = 4. Dadas as definições de variável aleatória discreta, função de probabilidade e função de distribuição, partimos agora para dois outros importantes conceitos: média e variância de uma variável aleatória. É importante frisar que as definições de média e variância apresentadas a seguir são exclusivas de variáveis aleatórias discretas.

A média de uma variável aleatória, também denominada de valor esperado ou

expectância é conhecida como uma medida de posição central por fornecer um valor que

represente bem o comportamento de todos os outros valores assumidos pela variável aleatória e é definida por:

(

i

)

n i i

P

X

x

x

X

E

=

=

=1

)

(

(7)

Juntamente com o conceito de média, vem o conceito de variância de uma variável

aleatória, que se caracteriza por ser uma medida de dispersão que indica quão longe, em geral, os

valores assumidos pela variável estão da sua média. A variância é definida por:

( )

[

( )

]

(

i

)

n i i

E

X

P

X

x

x

X

VAR

=

=

= 2 1

onde X é uma variável aleatória discreta, E(X) é a média de X e

x

i é cada possível resultado de X. A raiz quadrada positiva da variância é conhecida como desvio padrão e denotada por DP(X).

Entendidos os conceitos de média e variância de uma variável aleatória discreta, finalizamos essa seção com a apresentação de alguns resultados que terão grande utilidade no decorrer do trabalho.

Proposição 3.6: Seja X uma variável aleatória discreta que pode assumir qualquer valor

n

i

x

i

,

=

1

,

K

,

, com igual probabilidade. Se xiz,∀i =1,K,n, e E

( )

X =0 então,

( )

X

z

2

.

VAR

Demonstração: Seja X uma variável aleatória discreta que pode assumir qualquer valor

n

i

x

i

,

=

1

,

K

,

, com igual probabilidade. Suponhamos que xiz,∀i=1,K,n, e

( )

X =0 E . Então,

( )

1 1

(

) (

1

)

2. 2 2 2 2 2 2 2 1 1 2 z n z n z z n x x x n x n X VAR n n i i = + + + ≤ + + = = =

= K K Logo,

VAR

( )

X

z

2

.

Teorema 3.7: Seja X uma variável aleatória com função de distribuição F(X) e seja g(X) uma função não negativa da variável aleatória X. Se existir E

{

g

( )

X

}

1, então para todok >0, arbitrário, é válida a seguinte desigualdade:

( )

(

)

{

( )

}

.

k

X

g

E

k

X

g

P

Existe um caso particular do Teorema 3.7, que restringe a função g(X) como sendo

( )

{

}

2

)

(

X

X

E

X

g

=

. De acordo com Meyer (1983), temos que

E

{

X

E

( )

X

}

2

=

VAR

( )

X

. Assim, a desigualdade do Teorema 3.7, aplicada neste caso,

produz:

{

(

( )

)

}

( )

k

X

VAR

k

X

E

X

P

2

ou

{

( )

}

( )

k

X

VAR

k

X

E

X

P

.

Fazendo-se

k

=

ε

DP

( )

X

, obtemos a fórmula da Desigualdade de Chebyshev,

( )

( )

{

}

1

2

ε

ε

E

X

DP

X

X

P

, que estabelece um valor máximo para a probabilidade da

variável aleatória X diferir de sua média por, no mínimo, um número ε de vezes do seu desvio padrão.

1

A definição de valor esperado de uma função de uma variável aleatória não foi definida anteriormente por questão de prioridades. Isso, no entanto, não afetará a compreensão do trabalho. De qualquer maneira, em caso de curiosidade, ela pode ser encontrada em MEYER (1983).

(8)

Definição 3.8: Seja X uma variável aleatória com função de distribuição F(X), tal que E(X) = μ e

Var(x) = σ ². A Desigualdade de Chebyshev é definida como:

{

|

|

}

1

2

.

ε

εσ

μ

X

P

4 – Aplicações dos conceitos Estatísticos para análise do comportamento dos autovalores de um grafo

Consideremos, a partir de agora, o espectro de um grafo com n vértices apenas como o conjunto de todos os n autovalores de sua matriz de adjacência. Consideremos também a variável aleatória X como sendo a variável que se identifica à seleção ao acaso de um autovalor dentre os

n autovalores desse espectro. Temos, então, que o espaço amostral associado a esse experimento

aleatório é constituído pelos n autovalores contidos no espectro do grafo, ou seja,

{

n

}

S

=

λ

1

,

λ

2

,

λ

3

,

K

,

λ

. Assim, se torna fácil perceber que a variável X se caracteriza por ser uma variável aleatória discreta, uma vez que o conjunto de valores que X pode assumir tem cardinalidade n, ou seja, é um conjunto finito de pontos.

É importante lembrar também que a variável aleatória X se justifica devido à existência da função X (no caso, a função identidade) que associa cada autovalor contido no espectro a ele mesmo, uma vez que os autovalores já constituem características numéricas. Além disso, não podemos nos esquecer que a variável aleatória X está sendo definida a partir de uma experiência aleatória. Sendo assim, as chances de um autovalor ser selecionado dentre todos os outros são, nesse caso, as mesmas para qualquer autovalor contido no espectro. Ou seja, como estamos considerando X como a variável aleatória que se identifica à seleção ao acaso de um autovalor dentre n autovalores, temos então que

(

)

i

i

n

n

X

P

=

λ

i

=

1

,

,

=

1

,

K

,

. Tendo isso em vista, seguimos adiante com alguns resultados que obtivemos ao relacionar a Teoria Espectral dos Grafos com a Estatística e a Teoria das Probabilidades.

Proposição 4.1: Sejam G um grafo com n vértices e X a variável aleatória que se identifica à seleção ao acaso de um autovalor dentre os n autovalores da matriz de adjacência de G. Então,

( )

X =0.

E

Demonstração: Como a média da variável aleatória discreta X é dada por:

(

i

)

n i i

X

P

X

E

=

λ

=

λ

=1

)

(

, tem-se que

( )

=

=

n i i

n

X

E

1

1

λ

. O somatório de

λ

i, porém, é nada menos que o somatório dos n autovalores da matriz de adjacência de G. De acordo com Horn (1985), temos que a soma dos autovalores de uma matriz é sempre equivalente ao traço da matriz (soma dos elementos da diagonal principal). Sendo assim, como o traço da matriz de adjacência de G é sempre igual a zero, temos então que

( )

=

0 =

0

.

n

X

E

Proposição 4.2: Sejam G um grafo k-regular com n vértices e X a variável aleatória que se identifica à seleção ao acaso de um autovalor dentre os n autovalores da matriz de adjacência de

G. Então, VAR

( )

X =k.

Demonstração: Como a variância da variável aleatória discreta X é dada por:

( )

n

[

( )

]

(

i

)

i i

X

P

X

E

X

VAR

=

λ

=

λ

= 2 1 .

(9)

e pela Proposição 4.1, E

( )

X =0, temos que

( )

=

=

i i

n

X

VAR

1 2

1

λ

. Usando o Teorema 2.3,

concluímos então que

( )

k

n

nk

X

VAR

=

=

.

Proposição 4.3: Sejam G um grafo unicíclico com ciclo de comprimento par com n vértices e X a variável aleatória que se identifica à seleção ao acaso de um autovalor dentre os n autovalores da matriz de adjacência de G. Então, VAR

( )

X ≤ n+1.

Demonstração: De acordo com Boaventura (2001), temos que m = n, onde m é o número de arestas de G. Além disso, pelos Teoremas 2.4 e 2.5 temos que

. , , 1 , 1 1 n i n n+ ≤ i≤ + ∀ = K

λ

Como E

( )

X =0, temos, pela Proposição 3.6, que

( )

X

(

n

+

1

)

2

=

n

+

1

.

VAR

Logo, VAR

( )

X ≤ n+1.

Proposição 4.4: Sejam G uma árvore com n vértices e X a variável aleatória que se identifica à seleção ao acaso de um autovalor dentre os n autovalores da matriz de adjacência de G. Então,

( )

X ≤ n−1.

VAR

Demonstração: De acordo com Boaventura (2001) temos que m = n – 1, onde m é o número de arestas de G. Além disso, pelos Teoremas 2.4 e 2.6 temos que

. , , 1 , 1 1 n i n n− ≤ i≤ − ∀ = K

λ

ComoE

( )

X =0, temos, pela Proposição 3.6, que

( )

X

(

n

1

)

2

=

n

1

.

VAR

Logo, VAR

( )

X ≤ n−1.

Proposição 4.5: Sejam G uma árvore com n vértices e grau máximo

Δ

e X a variável aleatória que se identifica à seleção ao acaso de um autovalor dentre os n autovalores da matriz de adjacência de G. Então, VAR

( ) (

X ≤4 Δ−1

)

.

Demnostração: Pelos Teoremas 2.4 e 2.7 tem-se que

. , , 1 , 1 2 1 2 Δ− ≤ i≤ Δ− ∀i= K n

λ

Como E

( )

X =0, temos, pela Proposição 3.6, que

( )

X

(

2

Δ

1

)

2

=

4

(

Δ

1

)

VAR

. Logo, VAR

( )

X ≤4

(

Δ−1

)

.

Como é possível notar, no caso das árvores existem dois limites para a variância: um em função do número de vértices e outro em função do grau máximo do grafo. Isso acontece devido à existência de dois limites diferentes para o índice de uma árvore, o que é um fator positivo, uma vez que um dos limites provavelmente será menor que o outro, possibilitando assim a obtenção de um valor mais aproximado do real valor da variância de X. Agora, apresentados os resultados necessários, partimos para a análise do comportamento do espectro das três famílias de grafos citadas anteriormente: k-regulares, unicíclicos com ciclo de comprimento par e árvores. Para isso, será utilizada em todos os casos a Desigualdade de Chebyshev, apresentada na seção 3.

1 - Sejam G um grafo conexo k-regular com n vértices e X a variável aleatória que se identifica à seleção ao acaso de um autovalor dentre os n autovalores da matriz de adjacência de G. Pelas Proposições 4.1 e 4.2, E

( )

X =0 e VAR

( )

X =k. Usando a Desigualdade de Chebyshev, temos

{

|

0

|

}

1

2

.

ε

ε

k

X

P

Assim, para

ε

= 2:

{

}

; 2 1 2 | | XkP para

(10)

: 2 =

ε

{

}

; 4 1 2 | | XkP para

ε

=3:

{

}

;

9

1

3

|

|

X

k

P

para

ε

=5:

{

}

;

25

1

5

|

|

X

k

P

para

ε

=10:

{

}

.

100

1

10

|

|

X

k

P

Assim, a Desigualdade de

Chebyshev, nos permite afirmar que, num grafo k-regular qualquer com n vértices: • Pelo menos 50% dos autovalores se encontram entre

2

k

e

2

k

; • Pelo menos 75% dos autovalores se encontram entre

2

k

e

2 k

;

• Pelo menos 88% dos autovalores se encontram entre

3

k

e

3 k

;

• Pelo menos 96% dos autovalores se encontram entre

5

k

e

5 k

;

• Pelo menos 99% dos autovalores se encontram entre

10

k

e

10

k

.

2 - Sejam G um grafo unicíclico com um ciclo de comprimento par com n vértices e X a variável aleatória que se identifica à seleção ao acaso de um autovalor dentre os n autovalores da matriz de adjacência de G. Pelas Proposições 4.1 e 4.3 E

( )

X =0 e VAR

( )

X ≤ n+1. Usando a Desigualdade de Chebyshev, temos

{

|

0

|

1

}

1

2

.

ε

ε

+

n

X

P

Assim, para

ε

= 2:

(

)

{

}

;

2

1

1

2

|

|

X

n

+

P

para

ε

=2:

{

}

;

4

1

1

2

|

|

X

n

+

P

para

ε

=3:

{

}

;

9

1

1

3

|

|

X

n

+

P

para

ε

=5:

{

}

;

25

1

1

5

|

|

X

n

+

P

para

ε

=10:

{

}

.

100

1

1

10

|

|

X

n

+

P

Assim, a Desigualdade de Chebyshev, nos permite afirmar que, num grafo unicíclico de comprimento par com n vértices:

• Pelo menos 50% dos autovalores se encontram entre − 2

(

n+1

)

e 2

(

n+1

)

; • Pelo menos 75% dos autovalores se encontram entre

2

n

+

1

e 2 n+1;

• Pelo menos 88% dos autovalores se encontram entre

3

n

+

1

e

3

n

+

1

;

• Pelo menos 96% dos autovalores se encontram entre

5

n

+

1

e

5

n

+

1

;

• Pelo menos 99% dos autovalores se encontram entre

10

n

+

1

e

10

n

+

1

.

3 - Sejam G uma árvore com n vértices e grau máximo

Δ

e X a variável aleatória que se identifica à seleção ao acaso de um autovalor dentre os n autovalores da matriz de adjacência de

G. Pelas Proposições 4.1, 4.3 e 4.4, temos que E

( )

X =0, VAR

( )

X ≤ n−1 e

( ) (

X ≤4Δ−1

)

VAR .Usando a Desigualdade de Chebyshev, temos: (3.1) – em função do número de vértices,

{

|

0

|

1

}

1

2

.

ε

ε

n

X

P

Assim, para

ε

= 2:

(

)

{

}

;

2

1

1

2

|

|

X

n

P

para

ε

=2:

{

}

;

4

1

1

2

|

|

X

n

P

para

ε

=3:

{

}

;

9

1

1

3

|

|

X

n

P

para

ε

=5:

{

}

;

25

1

1

5

|

|

X

n

P

para

ε

=10:

(11)

{

}

.

100

1

1

10

|

|

X

n

P

Assim, a Desigualdade de Chebyshev, nos permite afirmar que, numa árvore com n vértices:

• Pelo menos 50% dos autovalores se encontram entre − 2

(

n−1

)

e 2

(

n−1

)

; • Pelo menos 75% dos autovalores se encontram entre

2

n

1

e

2

n

1

;

• Pelo menos 88% dos autovalores se encontram entre

3

n

1

e

3

n

1

;

• Pelo menos 96% dos autovalores se encontram entre

5

n

1

e

5

n

1

;

• Pelo menos 99% dos autovalores se encontram entre

10

n

1

e 10 n−1;. (3.2) - em função do grau máximo,

{

|

0

|

4

(

1

)

}

1

2

.

ε

ε

Δ

X

P

Assim, para

ε

= 2:

(

)

{

}

;

2

1

1

8

|

|

X

Δ

P

para

ε

=2:

{

(

)

}

;

4

1

1

4

2

|

|

X

Δ

P

para

ε

=3:

(

)

{

}

;

9

1

1

4

3

|

|

X

Δ

P

para

ε

=5:

{

(

)

}

;

25

1

1

4

5

|

|

X

Δ

P

para

ε

=10:

(

)

{

}

.

100

1

1

4

10

|

|

X

Δ

P

Assim, a Desigualdade de Chebyshev, nos permite afirmar que, numa árvore com grau máximo

Δ

:

• Pelo menos 50% dos autovalores se encontram entre − 8

(

Δ−1

)

e 8

(

Δ−1

)

; • Pelo menos 75% dos autovalores se encontram entre −2 4

(

Δ−1

)

e 2 4

(

Δ−1

)

;

• Pelo menos 88% dos autovalores se encontram entre −3 4

(

Δ−1

)

e 3 4

(

Δ−1

)

;

• Pelo menos 96% dos autovalores se encontram entre −5 4

(

Δ−1

)

e 5 4

(

Δ−1

)

;

• Pelo menos 99% dos autovalores se encontram entre −10 4

(

Δ−1

)

e 10 4

(

Δ−1

)

. Mais uma vez, é importante lembrar que no caso das árvores, que existem duas possibilidades de limite para a variância, o menor valor encontrado é o que merece maior atenção, pois é ele que fornecerá um intervalo mais reduzido para os autovalores.

5 – Considerações Finais

Ligações entre Teoria Espectral dos Grafos e outras áreas estão surgindo com mais freqüência. Neste trabalho, uma pequena ligação com a Estatística e Teoria das Probabilidades foi apresentada, possibilitando encontrar limitantes para os autovalores de três famílias de grafos. Com isso, pretendemos avançar esses estudos em outras famílias de grafos e também utilizar outras matrizes a eles associadas.

(12)

6 – Referências

Alon, N. e Sudakov, B. (2000), Bipartite subgraphs and the smallest eigenvalue, Combinatorics, Probability and Computing, 9, 1-12.

Biggs, N., Algebraic Graph Theory, 2 ed. Great Britain, Cambrige University Press, 1993. Boaventura Netto, P. O., Grafos: Teoria, Modelos, Algoritmos, Editora Edgard Blucher, LTDA, 2001.

Chung, F. R. K. (1994), Spectral Graph Theory, CBMS Conference on Recent Advances in Spectral Graph Theory, number 92.

Cvetkovic´, D. e Rowlinson, P. (1990), The largest eigenvalue of a graph: a survey, Linear and Multilinear Algebra, 28 , 3-33.

Cvetkovic´, D., Rowlinson, P., Simic, S., Eigenspaces of Graphs, Encyclopedia of Mathematics and its Applications 66, Cambridge, 1997.

Cvetkovic, D.; Doob, M. e Sachs, H., Spectra of Graphs, 3 ed. New York, Academic Press, 1995.

Godsil, C. e Royle, G., Graduate Texts in Matematics – Algebraic Graph Theory, Springer – Verlag, 2001.

Hoffman, A. J. (1969), The change in least eigenvalue of the adjacency matrix of a graph under imbedding, SIAM J. Appl. Math., 17, 664-677.

Hong, Y. (1993), Bounds of eigenvalues of graphs, Discrete Mathematics, 123, 65-74.

Lihtenbaum, L. M. (1956), Characteristic values of a simple graph, Trud 3-go Vses. Matem. Sezda, tom 1, 135-136.

Meyer, P. L., Probabilidade – Aplicações à Estatística, 2 ed. Livros Técnicos e Científicos Editora, 1983.

Stevanovic´, D. (2002), Bounding the largest eigenvalue of trees in terms of the largest vertex degree, 360, 35-42.

Referências

Documentos relacionados

Essa mudança também é essencial porque não se desprende todos de uma hora para a outra, e a liberdade total do dia pra noite assusta, assim é necessário que a liberdade e

Local de realização da avaliação: Centro de Aperfeiçoamento dos Profissionais da Educação - EAPE , endereço : SGAS 907 - Brasília/DF. Estamos à disposição

No final, os EUA viram a maioria das questões que tinham de ser resolvidas no sentido da criação de um tribunal que lhe fosse aceitável serem estabelecidas em sentido oposto, pelo

Para analisar as Componentes de Gestão foram utilizadas questões referentes à forma como o visitante considera as condições da ilha no momento da realização do

A pesquisa pode ser caracterizada como exploratória e experimental em uma primeira etapa (estudo piloto), na qual foram geradas hipóteses e um conjunto de observáveis, variáveis

Com intuito, de oferecer os gestores informações precisas atualizadas e pré-formatas sobre os custos que auxiliem nas tomadas de decisões corretas, nos diversos

Por último, temos o vídeo que está sendo exibido dentro do celular, que é segurado e comentado por alguém, e compartilhado e comentado no perfil de BolsoWoman no Twitter. No

Mas ele é ( verbo ser, no Presente do Indicativo ) apenas um gato e não tinha tido ( verbo ter, no Pretérito Mais-Que-Perfeito Simples do Indicativo ) tempo de aprender (