ESTATÍSTICA APLICADA AO ESPECTRO DE UM GRAFO
Rachel Abrahão Ribeiro
Escola Nacional de Ciências Estatísticas, ENCE/IBGE rachelabrahaoribeiro@hotmail.com
Carla Silva Oliveira
Escola Nacional de Ciências Estatísticas, ENCE/IBGE
carlasilva@ibge.gov.br
Resumo
Estudamos o comportamento dos autovalores da matriz de adjacência dos grafos k-regulares, das árvores e de alguns unicíclicos, uma vez que essas famílias de grafos não possuem espectros conhecidos. Utilizando média e variância de uma variável aleatória, conseguimos uma limitação para o percentual mínimo de autovalores em determinados intervalos da reta real, intervalos esses, limitados em função do número de vértices ou do grau máximo do grafo.
Palavras-chave: espectro de um grafo, média e variância
Abstract
We have studied the behavior of the eigenvalues of the adjacency matrix of the k-regular
graphs, the trees and some unicycles since these families of graphs don’t have spectrum
known. Using average and variance of a random variable, we get a limitation for the
minimum percentual the eigenvalues in determined intervals of a real line. These
intervals are limited due to the number of vertices or the maximum degree of a graph.
Key words: spectrum of a graph, average and variance1 – Introdução
A fundamentação teórica da Teoria Espectral dos Grafos começou por volta de 1950, baseando-se principalmente na aplicação de técnicas algébricas em grafos para transformar propriedades de grafos em propriedades algébricas e utilizar resultados e métodos da Álgebra para deduzir teoremas sobre grafos. Este enfoque foi proposto explicitamente por Hoffman (1969) embora já tivesse sido iniciado nos artigos de Wei (1952) e Lihtenbaum (1956). Os livros de Biggs (1993), Cvetkovic´ et al. (1997) e Godsil et al. (2001) são os mais recentes nesta área. Alguns parâmetros da Teoria Espectral dos Grafos têm contribuído muito no fortalecimento da conexão desta área com outras áreas da Matemática e da Ciência da Computação, como por exemplo podemos citar os trabalhos de Chung (1994) e Noga Alon et al (2000).
Neste trabalho, utilizamos conhecimentos da área da Estatística e Teoria das Probabilidades para encontrarmos limitantes para os autovalores de três famílias de grafos: k-regulares, unicíclicos com ciclo de comprimento par e árvores. Tentamos, com isso, estabelecer uma conexão produtiva entre ramos da Matemática Aplicada. Assim, iniciamos a próxima seção com conceitos básicos e resultados da literatura sobre Teoria Espectral dos Grafos e apresentamos na seção 3 os conceitos estatísticos que aqui serão utilizados, para, na seção seguinte, apresentarmos alguns resultados relacionando essas duas teorias. Por fim, apresentamos as considerações finais.
2 – Conceitos e resultados da literatura sobre Teoria Espectral dos Grafos
Consideremos G = (V,E) um grafo simples, não orientado, sem laços ou arestas múltiplas, tendo V como o conjunto de vértices de cardinalidade |V(G)|= n e E como o conjunto de arestas de cardinalidade |E(G)| = m, onde
(
)
2
1
0
≤
m
≤
n
n
−
. Cada aresta de G é denotada por( )
v we= , , tal que
v
,
w
∈
V
são seus vértices terminais, denominados vértices adjacentes e diz-se que e incide em v e w ou que e é uma aresta incidente em v e em w. O grau de v, d(v), é onúmero de arestas incidentes em v e o grau médio de G,
( )
( )
n
v
d
G
d
n i i∑
==
1 . Denota-se, respectivamente, por( )
G
v Vd
( )
v
ie
( )
G
v Vd
( )
v
i i i∈Δ
=
∈=
min
max
δ
, os graus mínimo e máximo do grafo G.A matriz quadrada simétrica de ordem n, A(G)=[aij], para a qual aij = 1, se
(
v
i,
v
k)
∈
E
e aij = 0 , se
(
v
i,
v
k)
∉
E
, é denominada matriz de adjacência de G. O polinômio característicode G é dado por
p
G( )
λ
= det
(
A
−
λ
I
)
, ondeλ
1≥
λ
2≥
...
≥
λ
n−1≥
λ
n são os autovalores deA(G), isto é, as raízes de
p
G( )
λ
, as quais são denominadas autovalores de G. O maior autovalor deste polinômio,λ
1, é denominado índice do grafo e denotado por ind(G). O espectro de G,spect G, é definido como sendo uma matriz 2 x s cuja primeira linha é constituída pelos
autovalores distintos de A(G), ordenados em ordem não-crescente e a segunda linha por suas multiplicidades algébricas(número de vezes que o autovalor é raiz do polinômio característico). Assim se
m
A( )
λ
i são as multiplicidades algébricas, o espectro de G é dado por:( )
( )
. 1 1 ⎥ ⎦ ⎤ ⎢ ⎣ ⎡ = s A A s m m G spectλ
λ
λ
λ
K KExemplo 2.1: Considere o grafo G da Figura 2.1.
Figura 2.1: grafo G
Sua matriz de adjacência é
( )
.
0
1
1
1
1
0
0
1
1
0
0
1
1
1
1
0
⎥
⎥
⎥
⎥
⎦
⎤
⎢
⎢
⎢
⎢
⎣
⎡
=
G
A
O polinômio característico de G é dado por
p
G( )
λ
=
λ
4−
5
λ
2−
4
λ
. As raízes deste polinômio sãoλ
1= 2,5616; λ2 = 0, λ3 = -1 e λ4 = -1,5616, e conseqüentemente o índice do grafo é, ind G =2,5616 e seu espectro dado por:
.
1
1
1
1
5616
,
1
1
0
561
,
2
⎥
⎦
⎤
⎢
⎣
⎡
−
−
=
G
spect
Na literatura existem vários resultados sobre o espectro de um grafo. Alguns desses resultados mostram que se pode obter informações sobre a estrutura do grafo em função dos seus autovalores. A seguir enunciamos alguns resultados que podem ser encontrados em Biggs(1993), Cvetkovic´ et al. (1995) e Godsil et al. (2001).
Teorema 2.1: Seja G um grafo com seqüência decrescente de graus
[
d
( )
v
1,
K
,
d
( )
v
n]
e grau médio d(G). Então( ) ( )
G ≤d G ≤ind(G)≤Δ(G).δ
Teorema 2.2: Se G é um grafo conexo k-regular, então k é um autovalor de G com multiplicidade algébrica igual a 1.
Para certas classes de grafos são conhecidos os seus espectros. Dentre eles tem-se:
1 – O espectro do grafo completo
K
né;
1
1
1
1
⎥
⎦
⎤
⎢
⎣
⎡
−
−
−
=
n
n
K
spect
n2 – Para n ímpar, o espectro de
C
né(
)
⎥
⎥
⎦
⎤
⎢
⎢
⎣
⎡
−
=
2
2
1
2
1
cos
2
2
cos
2
2
K
K
π
π
n
n
C
spect
n e para n par, é(
)
⎥
⎥
⎦
⎤
⎢
⎢
⎣
⎡
−
=
2
2
1
2
1
cos
2
2
cos
2
2
K
K
π
π
n
n
C
spect
n .Teorema 2.3: G é conexo k-regular se, e somente se,
.
1 2
nk
n i i=
∑
=λ
Teorema 2.4: Seja G um grafo conexo. Então as seguintes afirmações são equivalentes 1- G é bipartido;
2- se
λ
é um autovalor de G então −λ
também é um autovalor de G com a mesma multiplicidade algébrica que a deλ
.Como conseqüência do Teorema 2.4, o grafo bipartido completo
K
a,b tem seu espectro dado por:.
1
2
1
0
,⎥
⎦
⎤
⎢
⎣
⎡
−
+
−
=
b
a
ab
ab
K
spect
abConvém lembrar que toda árvore e todo grafo unicíclico com ciclo de comprimento par são grafos bipartido e portanto seus autovalores são simétricos. Conseqüentemente pelo Teorema 2.1, conclui-se que seus autovalores satisfazem a seguinte desigualdade: −Δ≤
λ
i ≤Δ, ∀i,1≤i≤n.De acordo com Cvetkovic´ et al. (1990), Hong (1993) e Stevanovic´(2003) podemos encontrar outros limitantes superiores e inferiores para o índice de um grafo como observamos nos resultados a seguir.
Teorema 2.5: Se G é um grafo conexo com n vértices e m arestas então
λ
1( )
G
≤
2
m
−
n
+
1
. A igualdade é atingida se, e somente se, G é a estrelaK
1,n−1 ou o grafo completoK
n.Teorema 2.6: Se G é uma árvore com n vértices então
( )
1
.
1
cos
2
≤
1≤
−
+
G
n
n
λ
π
O limite inferior é atingido se, e somente se, G é o caminhoP
n e o limite superior é atingido se, e somente se, G é a estrelaK
1,n−1.3 – Noções básicas do Cálculo das Probabilidades
Antes de qualquer coisa, consideremos, de acordo com Meyer(1983), a definição de modelo determinístico como sendo um modelo que estipula que as condições, sob as quais um experimento seja executado, determinam o resultado do experimento. Em contraposição a ele está o modelo não-determinístico ou probabilístico ou, ainda, aleatório, que caracteriza um modelo que, independente das condições, não determina resultados previamente ou, em outras palavras, não admite resultados antes da realização do experimento. Aos fenômenos para os quais modelos não-determinísticos são apropriados, dá-se o nome de experimento aleatório. Como exemplo, podemos citar o lançamento de um dado para a observação do número mostrado na face de cima (experimento 1), ou o lançamento de uma moeda para a observação da face obtida (experimento 2).
Ao conjunto de todos os possíveis resultados do experimento dá-se o nome de espaço
amostral.
Definição 3.1: Para cada experimento ε, define-se o espaço amostral como o conjunto de todos os resultados possíveis de ε. Geralmente representa-se esse conjunto por S.
Como exemplo podemos citar o espaço amostral S1 =
{
1,2,3,4,5,6}
para o experimento 1, citado anteriormente, ou o espaço amostral S2 ={
Cara,Coroa}
para o experimento 2, também já citado. É importante lembrar que ao descrevermos o espaço amostral de um experimento, não especificamos que um resultado individual seja necessariamente um número. Esse é o caso do experimento 2, cujo espaço amostral é constituído por dois nomes, que representam, cada qual, uma das faces da moeda. Entretanto, em muitas situações experimentais, há interesse na mensuração de cada resultado e no seu registro como um número. A partir disso, segue uma das definições de maior relevância no contexto do trabalho.Definição 3.2: Sejam ε um experimento e S o espaço amostral associado ao experimento. Uma função X, que associe a cada elemento
s
∈
S
um número real, X(s), é denominada variávelaleatória.
Para ilustrar a definição acima, consideremos novamente o experimento 2. Uma função X que associe, por exemplo, a ocorrência de “cara” ao número 0 e a ocorrência de “coroa” ao número 1 é uma variável aleatória. Se, todavia, o resultado s do espaço amostral já constituir uma característica numérica, assim como acontece no experimento 1, basta tomar a função X como sendo a função identidade para que se garanta a existência da variável aleatória.
Definição 3.3: Seja X uma variável aleatória definida a partir de uma experiência aleatória ε. Dizemos que X é uma variável aleatória do tipo discreto se, e somente, se o seu contradomínio é um conjunto finito ou infinito mas numerável de pontos.
Definição 3.4: Seja X uma variável aleatória do tipo discreto e seja
x
i um ponto genérico de seu domínio, tal quei
=
1
,
2
,
K
,
n
. A cadax
i associaremos um númerop
i=
P
(
X
=
x
i)
denominado probabilidade dex
i, satisfazendo as seguintes condições:2-
(
)
1
;
1∑
==
=
n i ix
X
P
A probabilidade
p
i=
P
(
X
=
x
i)
parai
=
1
,
2
,
K
,
n
, define o que chamamos de função deprobabilidade da variável aleatória X.
Não é difícil concluir que, tanto o experimento 1 quanto o experimento 2, definem variáveis aleatórias do tipo discreto. Sendo assim, tomemos o primeiro deles como exemplo para ilustrar a Definição 3.4. Seja X a variável aleatória que se identifica ao número obtido na face de cima no lançamento de um dado. Então,
(
)
,
{
1
,
2
,
3
,
4
,
5
,
6
}
.
6
1
∈
∀
=
=
x
ix
iX
P
Nesse exemplo, as probabilidades são iguais para todo
x
i, visto que todas as faces têm a mesma chance de caírem voltadas para cima. Além disso, é trivial mostrar que as duas condições associadas à Definição 3.4 são satisfeitas. Muitas vezes, no entanto, determinar essas probabilidades não é algo tão simples assim. Em muitos casos, diversos outros fatores devem ser levados em consideração (como, por exemplo, se o dado é um dado tradicional, se ele está viciado ou não, etc.). O importante, porém, é que a definição de função de probabilidade fique clara, pois é ela que nos leva a um outro conceito: função de distribuição.A função de distribuição de uma variável aleatória X é definida pela probabilidade do evento
(
X ≤ x)
e, para calculá-la no ponto x, devemos somar as probabilidades dos pontos que tem probabilidade não nula no intervalo(
−∞;x]
, como mencionado na definição abaixo. Definição 3.5: Seja X uma variável aleatória com função de probabilidadeP
(
X
=
x
i)
. A funçãode distribuição de probabilidades de X, no ponto x, é dada por:
( )
=∑
(
=)
, ∀ ∈ℜ. ≤ x x X P X F x x i iComo exemplo, podemos calcular a função de distribuição da variável definida a partir do experimento 1: seja X a variável aleatória que se identifica ao número obtido na face de cima no lançamento de um dado. Então,
( )
,{
1,2,3,4,5,6}
.6 ∀ ∈
= xi xi
X
F Ou seja, a probabilidade de
X ser menor ou igual a 4, por exemplo, é igual ao somatório das probabilidades de X ser igual a 1,
ser igual a 2, ser igual a 3 e ser igual a 4. Como
(
)
(
)
(
)
(
)
6
1
4
3
2
1
=
=
=
=
=
=
=
=
P
X
P
X
P
X
X
P
, temos então que( )
6
4
=
X
F
, para x = 4. Dadas as definições de variável aleatória discreta, função de probabilidade e função de distribuição, partimos agora para dois outros importantes conceitos: média e variância de uma variável aleatória. É importante frisar que as definições de média e variância apresentadas a seguir são exclusivas de variáveis aleatórias discretas.A média de uma variável aleatória, também denominada de valor esperado ou
expectância é conhecida como uma medida de posição central por fornecer um valor que
represente bem o comportamento de todos os outros valores assumidos pela variável aleatória e é definida por:
(
i)
n i iP
X
x
x
X
E
=
∑
=
=1)
(
Juntamente com o conceito de média, vem o conceito de variância de uma variável
aleatória, que se caracteriza por ser uma medida de dispersão que indica quão longe, em geral, os
valores assumidos pela variável estão da sua média. A variância é definida por:
( )
[
( )
]
(
i)
n i iE
X
P
X
x
x
X
VAR
=
∑
−
=
= 2 1onde X é uma variável aleatória discreta, E(X) é a média de X e
x
i é cada possível resultado de X. A raiz quadrada positiva da variância é conhecida como desvio padrão e denotada por DP(X).Entendidos os conceitos de média e variância de uma variável aleatória discreta, finalizamos essa seção com a apresentação de alguns resultados que terão grande utilidade no decorrer do trabalho.
Proposição 3.6: Seja X uma variável aleatória discreta que pode assumir qualquer valor
n
i
x
i,
=
1
,
K
,
, com igual probabilidade. Se xi ≤z,∀i =1,K,n, e E( )
X =0 então,( )
X
z
2.
VAR
≤
Demonstração: Seja X uma variável aleatória discreta que pode assumir qualquer valor
n
i
x
i,
=
1
,
K
,
, com igual probabilidade. Suponhamos que xi ≤z,∀i=1,K,n, e( )
X =0 E . Então,( )
1 1(
) (
1)
2. 2 2 2 2 2 2 2 1 1 2 z n z n z z n x x x n x n X VAR n n i i = + + + ≤ + + = = =∑
= K K Logo,VAR
( )
X
≤
z
2.
Teorema 3.7: Seja X uma variável aleatória com função de distribuição F(X) e seja g(X) uma função não negativa da variável aleatória X. Se existir E
{
g( )
X}
1, então para todok >0, arbitrário, é válida a seguinte desigualdade:( )
(
)
{
( )
}
.
k
X
g
E
k
X
g
P
≥
≤
Existe um caso particular do Teorema 3.7, que restringe a função g(X) como sendo
( )
{
}
2)
(
X
X
E
X
g
=
−
. De acordo com Meyer (1983), temos queE
{
X
−
E
( )
X
}
2=
VAR
( )
X
. Assim, a desigualdade do Teorema 3.7, aplicada neste caso,produz:
{
(
( )
)
}
( )
k
X
VAR
k
X
E
X
P
−
2≥
≤
ou{
( )
}
( )
k
X
VAR
k
X
E
X
P
−
≥
≤
.Fazendo-se
k
=
ε
DP
( )
X
, obtemos a fórmula da Desigualdade de Chebyshev,( )
( )
{
}
1
2ε
ε
≤
≥
−
E
X
DP
X
X
P
, que estabelece um valor máximo para a probabilidade davariável aleatória X diferir de sua média por, no mínimo, um número ε de vezes do seu desvio padrão.
1
A definição de valor esperado de uma função de uma variável aleatória não foi definida anteriormente por questão de prioridades. Isso, no entanto, não afetará a compreensão do trabalho. De qualquer maneira, em caso de curiosidade, ela pode ser encontrada em MEYER (1983).
Definição 3.8: Seja X uma variável aleatória com função de distribuição F(X), tal que E(X) = μ e
Var(x) = σ ². A Desigualdade de Chebyshev é definida como:
{
|
|
}
1
2.
ε
εσ
μ
≥
≤
−
X
P
4 – Aplicações dos conceitos Estatísticos para análise do comportamento dos autovalores de um grafo
Consideremos, a partir de agora, o espectro de um grafo com n vértices apenas como o conjunto de todos os n autovalores de sua matriz de adjacência. Consideremos também a variável aleatória X como sendo a variável que se identifica à seleção ao acaso de um autovalor dentre os
n autovalores desse espectro. Temos, então, que o espaço amostral associado a esse experimento
aleatório é constituído pelos n autovalores contidos no espectro do grafo, ou seja,
{
n}
S
=
λ
1,
λ
2,
λ
3,
K
,
λ
. Assim, se torna fácil perceber que a variável X se caracteriza por ser uma variável aleatória discreta, uma vez que o conjunto de valores que X pode assumir tem cardinalidade n, ou seja, é um conjunto finito de pontos.É importante lembrar também que a variável aleatória X se justifica devido à existência da função X (no caso, a função identidade) que associa cada autovalor contido no espectro a ele mesmo, uma vez que os autovalores já constituem características numéricas. Além disso, não podemos nos esquecer que a variável aleatória X está sendo definida a partir de uma experiência aleatória. Sendo assim, as chances de um autovalor ser selecionado dentre todos os outros são, nesse caso, as mesmas para qualquer autovalor contido no espectro. Ou seja, como estamos considerando X como a variável aleatória que se identifica à seleção ao acaso de um autovalor dentre n autovalores, temos então que
(
)
i
i
n
n
X
P
=
λ
i=
1
,
∀
,
=
1
,
K
,
. Tendo isso em vista, seguimos adiante com alguns resultados que obtivemos ao relacionar a Teoria Espectral dos Grafos com a Estatística e a Teoria das Probabilidades.Proposição 4.1: Sejam G um grafo com n vértices e X a variável aleatória que se identifica à seleção ao acaso de um autovalor dentre os n autovalores da matriz de adjacência de G. Então,
( )
X =0.E
Demonstração: Como a média da variável aleatória discreta X é dada por:
(
i)
n i iX
P
X
E
=
∑
λ
=
λ
=1)
(
, tem-se que( )
∑
==
n i in
X
E
11
λ
. O somatório de
λ
i, porém, é nada menos que o somatório dos n autovalores da matriz de adjacência de G. De acordo com Horn (1985), temos que a soma dos autovalores de uma matriz é sempre equivalente ao traço da matriz (soma dos elementos da diagonal principal). Sendo assim, como o traço da matriz de adjacência de G é sempre igual a zero, temos então que( )
=
0 =
0
.
n
X
E
Proposição 4.2: Sejam G um grafo k-regular com n vértices e X a variável aleatória que se identifica à seleção ao acaso de um autovalor dentre os n autovalores da matriz de adjacência de
G. Então, VAR
( )
X =k.Demonstração: Como a variância da variável aleatória discreta X é dada por:
( )
n[
( )
]
(
i)
i iX
P
X
E
X
VAR
=
∑
λ
−
=
λ
= 2 1 .e pela Proposição 4.1, E
( )
X =0, temos que( )
∑
==
i in
X
VAR
1 21
λ
. Usando o Teorema 2.3,concluímos então que
( )
k
n
nk
X
VAR
=
=
.Proposição 4.3: Sejam G um grafo unicíclico com ciclo de comprimento par com n vértices e X a variável aleatória que se identifica à seleção ao acaso de um autovalor dentre os n autovalores da matriz de adjacência de G. Então, VAR
( )
X ≤ n+1.Demonstração: De acordo com Boaventura (2001), temos que m = n, onde m é o número de arestas de G. Além disso, pelos Teoremas 2.4 e 2.5 temos que
. , , 1 , 1 1 n i n n+ ≤ i≤ + ∀ = K
−
λ
Como E( )
X =0, temos, pela Proposição 3.6, que( )
X
≤
(
n
+
1
)
2=
n
+
1
.
VAR
Logo, VAR( )
X ≤ n+1.Proposição 4.4: Sejam G uma árvore com n vértices e X a variável aleatória que se identifica à seleção ao acaso de um autovalor dentre os n autovalores da matriz de adjacência de G. Então,
( )
X ≤ n−1.VAR
Demonstração: De acordo com Boaventura (2001) temos que m = n – 1, onde m é o número de arestas de G. Além disso, pelos Teoremas 2.4 e 2.6 temos que
. , , 1 , 1 1 n i n n− ≤ i≤ − ∀ = K
−
λ
ComoE( )
X =0, temos, pela Proposição 3.6, que( )
X
≤
(
n
−
1
)
2=
n
−
1
.
VAR
Logo, VAR( )
X ≤ n−1.Proposição 4.5: Sejam G uma árvore com n vértices e grau máximo
Δ
e X a variável aleatória que se identifica à seleção ao acaso de um autovalor dentre os n autovalores da matriz de adjacência de G. Então, VAR( ) (
X ≤4 Δ−1)
.Demnostração: Pelos Teoremas 2.4 e 2.7 tem-se que
. , , 1 , 1 2 1 2 Δ− ≤ i≤ Δ− ∀i= K n
−
λ
Como E( )
X =0, temos, pela Proposição 3.6, que( )
X
≤
(
2
Δ
−
1
)
2=
4
(
Δ
−
1
)
VAR
. Logo, VAR( )
X ≤4(
Δ−1)
.Como é possível notar, no caso das árvores existem dois limites para a variância: um em função do número de vértices e outro em função do grau máximo do grafo. Isso acontece devido à existência de dois limites diferentes para o índice de uma árvore, o que é um fator positivo, uma vez que um dos limites provavelmente será menor que o outro, possibilitando assim a obtenção de um valor mais aproximado do real valor da variância de X. Agora, apresentados os resultados necessários, partimos para a análise do comportamento do espectro das três famílias de grafos citadas anteriormente: k-regulares, unicíclicos com ciclo de comprimento par e árvores. Para isso, será utilizada em todos os casos a Desigualdade de Chebyshev, apresentada na seção 3.
1 - Sejam G um grafo conexo k-regular com n vértices e X a variável aleatória que se identifica à seleção ao acaso de um autovalor dentre os n autovalores da matriz de adjacência de G. Pelas Proposições 4.1 e 4.2, E
( )
X =0 e VAR( )
X =k. Usando a Desigualdade de Chebyshev, temos{
|
0
|
}
1
2.
ε
ε
≤
≥
−
k
X
P
Assim, paraε
= 2:{
}
; 2 1 2 | | X ≥ k ≤ P para: 2 =
ε
{
}
; 4 1 2 | | X ≥ k ≤ P paraε
=3:{
}
;
9
1
3
|
|
X
≥
k
≤
P
paraε
=5:{
}
;
25
1
5
|
|
X
≥
k
≤
P
paraε
=10:{
}
.
100
1
10
|
|
X
≥
k
≤
P
Assim, a Desigualdade deChebyshev, nos permite afirmar que, num grafo k-regular qualquer com n vértices: • Pelo menos 50% dos autovalores se encontram entre
−
2
k
e2
k
; • Pelo menos 75% dos autovalores se encontram entre−
2
k
e2 k
;
• Pelo menos 88% dos autovalores se encontram entre−
3
k
e3 k
;
• Pelo menos 96% dos autovalores se encontram entre−
5
k
e5 k
;
• Pelo menos 99% dos autovalores se encontram entre−
10
k
e10
k
.2 - Sejam G um grafo unicíclico com um ciclo de comprimento par com n vértices e X a variável aleatória que se identifica à seleção ao acaso de um autovalor dentre os n autovalores da matriz de adjacência de G. Pelas Proposições 4.1 e 4.3 E
( )
X =0 e VAR( )
X ≤ n+1. Usando a Desigualdade de Chebyshev, temos{
|
0
|
1
}
1
2.
ε
ε
+
≤
≥
−
n
X
P
Assim, paraε
= 2:(
)
{
}
;
2
1
1
2
|
|
X
≥
n
+
≤
P
paraε
=2:{
}
;
4
1
1
2
|
|
X
≥
n
+
≤
P
paraε
=3:{
}
;
9
1
1
3
|
|
X
≥
n
+
≤
P
paraε
=5:{
}
;
25
1
1
5
|
|
X
≥
n
+
≤
P
paraε
=10:{
}
.
100
1
1
10
|
|
X
≥
n
+
≤
P
Assim, a Desigualdade de Chebyshev, nos permite afirmar que, num grafo unicíclico de comprimento par com n vértices:• Pelo menos 50% dos autovalores se encontram entre − 2
(
n+1)
e 2(
n+1)
; • Pelo menos 75% dos autovalores se encontram entre−
2
n
+
1
e 2 n+1;• Pelo menos 88% dos autovalores se encontram entre
−
3
n
+
1
e3
n
+
1
;
• Pelo menos 96% dos autovalores se encontram entre−
5
n
+
1
e5
n
+
1
;
• Pelo menos 99% dos autovalores se encontram entre−
10
n
+
1
e10
n
+
1
.3 - Sejam G uma árvore com n vértices e grau máximo
Δ
e X a variável aleatória que se identifica à seleção ao acaso de um autovalor dentre os n autovalores da matriz de adjacência deG. Pelas Proposições 4.1, 4.3 e 4.4, temos que E
( )
X =0, VAR( )
X ≤ n−1 e( ) (
X ≤4Δ−1)
VAR .Usando a Desigualdade de Chebyshev, temos: (3.1) – em função do número de vértices,
{
|
0
|
1
}
1
2.
ε
ε
−
≤
≥
−
n
X
P
Assim, paraε
= 2:(
)
{
}
;
2
1
1
2
|
|
X
≥
n
−
≤
P
paraε
=2:{
}
;
4
1
1
2
|
|
X
≥
n
−
≤
P
paraε
=3:{
}
;
9
1
1
3
|
|
X
≥
n
−
≤
P
paraε
=5:{
}
;
25
1
1
5
|
|
X
≥
n
−
≤
P
paraε
=10:{
}
.
100
1
1
10
|
|
X
≥
n
−
≤
P
Assim, a Desigualdade de Chebyshev, nos permite afirmar que, numa árvore com n vértices:• Pelo menos 50% dos autovalores se encontram entre − 2
(
n−1)
e 2(
n−1)
; • Pelo menos 75% dos autovalores se encontram entre−
2
n
−
1
e2
n
−
1
;
• Pelo menos 88% dos autovalores se encontram entre−
3
n
−
1
e3
n
−
1
;
• Pelo menos 96% dos autovalores se encontram entre−
5
n
−
1
e5
n
−
1
;
• Pelo menos 99% dos autovalores se encontram entre
−
10
n
−
1
e 10 n−1;. (3.2) - em função do grau máximo,{
|
0
|
4
(
1
)
}
1
2.
ε
ε
Δ
−
≤
≥
−
X
P
Assim, paraε
= 2:(
)
{
}
;
2
1
1
8
|
|
X
≥
Δ
−
≤
P
paraε
=2:{
(
)
}
;
4
1
1
4
2
|
|
X
≥
Δ
−
≤
P
paraε
=3:(
)
{
}
;
9
1
1
4
3
|
|
X
≥
Δ
−
≤
P
paraε
=5:{
(
)
}
;
25
1
1
4
5
|
|
X
≥
Δ
−
≤
P
paraε
=10:(
)
{
}
.
100
1
1
4
10
|
|
X
≥
Δ
−
≤
P
Assim, a Desigualdade de Chebyshev, nos permite afirmar que, numa árvore com grau máximoΔ
:• Pelo menos 50% dos autovalores se encontram entre − 8
(
Δ−1)
e 8(
Δ−1)
; • Pelo menos 75% dos autovalores se encontram entre −2 4(
Δ−1)
e 2 4(
Δ−1)
;• Pelo menos 88% dos autovalores se encontram entre −3 4
(
Δ−1)
e 3 4(
Δ−1)
;• Pelo menos 96% dos autovalores se encontram entre −5 4
(
Δ−1)
e 5 4(
Δ−1)
;• Pelo menos 99% dos autovalores se encontram entre −10 4
(
Δ−1)
e 10 4(
Δ−1)
. Mais uma vez, é importante lembrar que no caso das árvores, que existem duas possibilidades de limite para a variância, o menor valor encontrado é o que merece maior atenção, pois é ele que fornecerá um intervalo mais reduzido para os autovalores.5 – Considerações Finais
Ligações entre Teoria Espectral dos Grafos e outras áreas estão surgindo com mais freqüência. Neste trabalho, uma pequena ligação com a Estatística e Teoria das Probabilidades foi apresentada, possibilitando encontrar limitantes para os autovalores de três famílias de grafos. Com isso, pretendemos avançar esses estudos em outras famílias de grafos e também utilizar outras matrizes a eles associadas.
6 – Referências
Alon, N. e Sudakov, B. (2000), Bipartite subgraphs and the smallest eigenvalue, Combinatorics, Probability and Computing, 9, 1-12.
Biggs, N., Algebraic Graph Theory, 2 ed. Great Britain, Cambrige University Press, 1993. Boaventura Netto, P. O., Grafos: Teoria, Modelos, Algoritmos, Editora Edgard Blucher, LTDA, 2001.
Chung, F. R. K. (1994), Spectral Graph Theory, CBMS Conference on Recent Advances in Spectral Graph Theory, number 92.
Cvetkovic´, D. e Rowlinson, P. (1990), The largest eigenvalue of a graph: a survey, Linear and Multilinear Algebra, 28 , 3-33.
Cvetkovic´, D., Rowlinson, P., Simic, S., Eigenspaces of Graphs, Encyclopedia of Mathematics and its Applications 66, Cambridge, 1997.
Cvetkovic, D.; Doob, M. e Sachs, H., Spectra of Graphs, 3 ed. New York, Academic Press, 1995.
Godsil, C. e Royle, G., Graduate Texts in Matematics – Algebraic Graph Theory, Springer – Verlag, 2001.
Hoffman, A. J. (1969), The change in least eigenvalue of the adjacency matrix of a graph under imbedding, SIAM J. Appl. Math., 17, 664-677.
Hong, Y. (1993), Bounds of eigenvalues of graphs, Discrete Mathematics, 123, 65-74.
Lihtenbaum, L. M. (1956), Characteristic values of a simple graph, Trud 3-go Vses. Matem. Sezda, tom 1, 135-136.
Meyer, P. L., Probabilidade – Aplicações à Estatística, 2 ed. Livros Técnicos e Científicos Editora, 1983.
Stevanovic´, D. (2002), Bounding the largest eigenvalue of trees in terms of the largest vertex degree, 360, 35-42.