• Nenhum resultado encontrado

REDUÇÃO DE DIMENSIONALIDADE ATRAVÉS DUMA ANÁLISE EM COMPONENTES PRINCIPAIS: UM CRITÉRIO PARA O NÚMERO DE COMPONENTES PRINCIPAIS A RETER

N/A
N/A
Protected

Academic year: 2021

Share "REDUÇÃO DE DIMENSIONALIDADE ATRAVÉS DUMA ANÁLISE EM COMPONENTES PRINCIPAIS: UM CRITÉRIO PARA O NÚMERO DE COMPONENTES PRINCIPAIS A RETER"

Copied!
9
0
0

Texto

(1)

REDUÇÃO DE DIMENSIONALIDADE ATRAVÉS DUMA ANÁLISE EM COMPONENTES PRINCIPAIS: UM CRITÉRIO PARA O NÚMERO DE COMPONENTES PRINCIPAIS A RETER

REDUCING DIMENSIONALITY BY MEANS OF A PRINCIPAL COMPONENT ANALYSIS: A CRITERION TO CHOOSE HOW MANY PRINCIPAL COMPONENTS SHOULD BE RETAINED

Autor: Jorge F. C. L. Cadima

- Professor Auxiliar - Departamento de Matemática - Instituto Superior de Agronomia

RESUMO:

• A escolha do número de factores a reter, no contexto duma redução de dimensionalidade através duma Análise em Componentes Principais, tem sido objecto de numerosos critérios, em que geralmente são necessárias opções de natureza subjectiva por parte do utilizador, e/ou hipóteses distribucionais subjacentes. Nesta comunicação apresenta-se um novo critério, que evita os referidos problemas. O critério baseia-se em propriedades geométricas, associadas à estrutura do cone de matrizes semi-definidas positivas, que sugerem uma dimensionalidade mínima admissível. A estrutura do cone, resultante da introdução do habitual produto interno matricial, veda determinadas zonas do cone à presença de matrizes de características reduzidas.

PALAVRAS-CHAVE:

l

l Componentes Principais, análise factorial, redução de dimensionalidade, cone de matrizes semi-definidas positivas.

ABSTRACT: l

l There are numerous criteria to choose how many Principal Components should be retained

when reducing dimensionality via a Principal Component Analysis. Subjective decisions by the user, and/or distributional hypotheses are usually necessary when applying these criteria. This communication proposes a new criterion which avoids these problems. The criterion is based on geometric properties of the cone of positive semi-definite matrices, that suggest a smallest admissible dimensionality. The structure of the cone, which is associated with the use of the usual matrix inner product, precludes the presence of low-rank matrices in certain areas of the cone.

KEY-WORDS: l

l Principal components, factorial analysis, dimensionality reduction, cone of positive semi-definite matrices.

(2)

1. INTRODUÇÃO

Na análise de conjuntos de dados multivariados, a possibilidade de reduzir a dimensionalidade dos dados sem grande perda de informação desempenha um papel crucial. Caso seja admissível proceder a uma aproximação em espaços bi- ou tri-dimensionais, tornar-se-á possível uma visualização gráfica aproximada do conjunto de dados. Mesmo quando não seja possível uma redução de dimensionalidade tão acentuada, as simplificações associadas à consideração de menos dimensões têm provado ser úteis para a compreensão, exploração e modelação de dados.

A redução de dimensionalidade é geralmente efectuada por meio de técnicas de análise factorial1, e no caso concreto de se analisar uma matriz X de observações de p variáveis sobre

n individuos, através duma Análise em Componentes Principais (ACP). Numa ACP –

contexto que será aqui analisado em pormenor, apesar de muito do que se segue ser também válido para análises factoriais em geral – identificam-se sucessivas combinações lineares das

p variáveis originais que sejam de variância máxima, sujeitas às restrições de

não-correlacionamento com anteriores combinações lineares. Estas combinações lineares designam-se Componentes Principais (CPs) ou factores. Os coeficientes que definem cada combinação linear são dados pelos elementos de cada vector próprio da matriz

Σ

de variâncias-covariâncias definida pelos dados (ou pela matriz de correlações, caso se opte por trabalhar com dados normalizados). O valor próprio associado a cada vector próprio indica a variância da CP correspondente. O quociente desse valor próprio sobre a soma dos valores próprios (isto é, sobre o traço da matriz

Σ

) designa-se a proporção da inércia da nuvem de

pontos definida pela matriz dos dados associada à CP em questão. Esta interpretação é extensível a conjuntos de CPs. Veja-se (Jolliffe, 1986) para uma discussão mais pormenorizada sobre a Análise em Componentes Principais.

A questão que se pretende aqui abordar prende-se com a determinação duma dimensionalidade mínima admissível para a representação dos dados originais, isto é, a identificação do número k de Componentes Principais (factores) a reter de forma a se poder considerar aceitável uma aproximação k-dimensional dos dados.

Inúmeras regras e critérios têm sido propostos com esta finalidade. Recenseamentos desses critérios, no contexto de ACP, encontram-se em (Jolliffe, 1986, Capítulo 6), e mais recentemente em (Richman, Angel & Gong, 1992). A ideia central subjacente a tais critérios é a de que factores associados a valores próprios próximos de zero podem ser desprezados sem grande perda de informação. Os critérios propostos podem agrupar-se em duas categorias fundamentais: os critérios ‘descritivos’ , que não consideram qualquer modelo ou distribuição subjacente, e os critérios ‘inferenciais’, nos quais as hipóteses distribucionais desempenham um papel central. De entre a primeira categoria, refiram-se, a título de exemplo, o critério de ignorar CPs após se ter atingido uma determinada proporção cumulativa de inércia explicada (provavelmente o critério mais frequentemente utilizado); o critério de Kaiser, de excluir CPs associados a valores próprios inferiores ao valor próprio médio (ou a variante de Jolliffe, que baixa esse limiar para 70% do valor próprio médio); e critérios baseados na análise visual de gráficos de valores próprios, ou logaritmos de valores próprios, contra as respectivas ordens (gráficos scree ou LEV), onde é frequente encontrar um padrão de rápido decréscimo inicial seguido de uma estabilização dos valores próprios em torno de valores próximos de zero, que dá aos gráficos o aspecto duma recta quase horizontal, procedendo-se à eliminação de CPs associadas a essa região do gráfico. De entre a segunda categoria, cite-se o exemplo dum teste

1 A expressão “análise factorial” é aqui usada no sentido mais lato, predominante na literatura de origem

francesa, indicando de forma genérica técnicas baseadas em análises espectrais ou em valores singulares. Não deve ser confundida com a técnica mais específica, correntemente designada por Factor Analysis na literatura anglo-saxónica. Para uma discussão das relações entre esta última técnica e a Análise em Componentes Principais, veja-se (Jolliffe, 1986, Capítulo 7).

(3)

assintótico à igualdade dos q menores valores próprios duma matriz de variâncias-covariâncias, admitindo a multinormalidade dos dados subjacentes (Jolliffe, 1986, pg.44).

No entanto, nenhum critério recolhe consenso generalizado. Em relação aos critérios inferenciais, são evidentes as restrições impostas pelas hipóteses distribucionais, ou modelos exigíveis. E a maior generalidade dos critérios determinísticos envolve geralmente apreciações de natureza subjectiva (qual o limiar a partir do qual se considera admissível uma dada proporção da inércia total explicada; qual o limiar para se considerar um determinado valor próprio como sendo desprezável; qual o limiar a partir do qual um gráfico scree ou LEV se considera aproximadamente horizontal; etc.) que podem conduzir a opções diferentes por diferentes utilizadores. Alguns critérios são ainda de aplicação algo trabalhosa.

O critério aqui proposto tem as vantagens de não exigir hipóteses distribucionais, de ser de aplicação simples e de ser um critério objectivo, no sentido de conduzir a uma dimensionalidade mínima admissível com base em considerações de natureza geométrica que não envolvem opções subjectivas por parte do utilizador.

Na Secção 2 apresentam-se os resultados teóricos que sustentam o critério. Este último é apresentado na Secção 3. Finalmente, a Secção 4 discute o critério.

2. ALGUMAS PROPRIEDADES DO CONE DE MATRIZES SEMI-DEFINIDAS POSITIVAS

Admitir a redução de dimensionalidade numa ACP dum conjunto de dados nxp equivale a admitir que os dados podem ser projectados sobre um subespaço k-dimensional sem perda substancial de informação. Do ponto de vista da matriz de variâncias-covariâncias (ou de correlações) associada aos dados, essa hipótese equivale a considerar que a matriz é “aproximadamente de característica k”, conceito que será formalizado seguidamente.

As matrizes de variâncias-covariâncias (ou de correlações) são sempre matrizes semi-definidas positivas, ou seja, matrizes simétricas

A

pxp cujas formas quadráticas são sempre não-negativas, i.e., tais que

x

t

Ax

0

,

x

p

/

{ }

0

. Conversamente, qualquer matriz semi-definida positiva (s.d.p.) é sempre uma matriz de variâncias-covariâncias para uma infinidade de matrizes de dados (qualquer que seja o número n de indivíduos observados), pelo que os dois conceitos se confundem. Relembremos agora o conceito de cone.

Definições.

1) Um subconjunto C dum espaço linear designa-se um cone se fôr fechado para

combinações lineares não-negativas:

x,

y

C

e

α

,

β

0+,

α

x

+

β

y

C

.

2) Num cone C, dado qualquer elemento V do cone, designa-se por raio associado a

V ao conjunto de todos os múltiplos escalares de V, com escalares não-negativos. É fácil de verificar que o conjunto das matrizes semi-definidas postivas de dimensão

pxp forma um cone no espaço linear das matrizes quadradas pxp, uma vez que se V e W

forem matrizes s.d.p. e

α

,

β

0

, então

x

t

(

α

V

+

β

W

)

x

=

α

x

t

Vx

+

β

x

t

Wx

0

,

x

0

. Designemos por

D

po cone das matrizes s.d.p. de dimensão p, cone que é discutido em mais pormenor por (Hill & Waters, 1987).

A definição dum produto interno no espaço linear de matrizes pxp – e por conseguinte no cone

D

p – permite definir o conceito de ângulo entre duas matrizes (ou seja, entre os raios

(4)

definidos por duas matrizes). Como se verá seguidamente, este conceito dará uma estrutura interessante ao cone, que sugere, de forma natural, uma solução para o problema sob consideração.

Definição. Seja

M

nxpo espaço linear das matrizes nxp, munido do habitual produto

interno matricial, definido por <A,B> = tr(AtB),

A B

,

M

nxp, onde tr designa o traço. Para

0

B

A

,

, defina-se o ângulo entre as matrizes A e B como sendo o arco cujo coseno é dado por:

cos( , )

A B

A B

,

A

B

=

onde

A

=

tr

A A

t

(

)

é a norma induzida pelo produto interno.

Na estrutura do cone

D

p de matrizes s.d.p., um papel central é desempenhado pelo raio definido pela matriz identidade pxp,

I

p. Os resultados seguintes, baseados no trabalho de (Tarazaga, 1990) e desenvolvidos em (Cadima, 1997) sintetizam a estrutura que nos irá interessar.

Teorema. Considere-se o cone

D

pde matrizes semi-definidas positivas pxp. Considere-se a matriz identidade

I

p

D

p, e qualquer outra matriz

V

D

p, cujos valores

próprios sejam os elementos do vector

λ

∈ ℜ

( )

+0 p. Então:

i)

(

)

p

p

p

p

1

1

1

,

cos

2 2 2 1

+

=

=

π

σ

λ

λ

I

V

, onde

σ

π2 1

(

π π

)

1 2

=

=

p i i p é a variância dos p valores próprios relativos da matriz V, isto é, dos

π

i λi λ

j j

=

. ii) p p) 1 ,

cos(V I = se e só se V fôr uma matriz de característica 1.

iii) Se V é uma matriz de característica k, então

cos( ,

V I

p

)

k p

, verificando-se a igualdade se e só se os k valores próprios não-nulos de V forem todos iguais.

Demonstração. Nesta demonstração serão usadas as conhecidas desigualdades

relacionando as normas

l

1 e

l

2 dum qualquer vector

x

n:

2 1

2

x

x

x

n

(Horn

& Johnson, 1985, pg. 279).

i) Seja

V

=

P

Λ

P

ta decomposição espectral de V, onde Λ indica a matriz diagonalΛ cuja diagonal é constituída pelos elementos do vector λλ (admita-se, sem perda de generalidade, que estão ordenados por ordem decrescente) e P é a matriz ortogonal cujas colunas são os vectores próprios correspondentes. Pela definição de produto interno entre duas matrizes, e pela circularidade do traço do produto matricial, tem-se:

(5)

( )

1 1

,

=

=

λ

=

λ

= p i i p

tr V

I

V

(já que todos os valores próprios são

não-negativos); 2 1 2 2

)

(

)

(

)

(

=

Λ

=

Λ

=

λ

=

λ

=

p= i i t

tr

tr

tr

2 2

P

P

V

V

; e

I

p

=

tr

(

I

p

)

=

p

. Logo, fica provada a primeira igualdade. Ora,

2 1 1 2 1 2 p p i i p

=

=

π

σ

π , uma vez que p

p i i p 1 1 1

=

=

=

π

π

. Logo,

λ

λ

1 2

p

=

1

1

1

2 1 2 2

p

i

p

i p

=

π

=

+

σ

π

. A desigualdade final resulta

directamente de

x

2

x

1 para qualquer vector x.

ii) Tendo em conta, como foi visto, que

cos( ,

V I

p

)

i i p

p

=

=

1

2 1

π

, tem-se

=

=

=

p i i p

p

1 2

1

1

)

,

cos(

V

I

π

π

22

=

π

1, onde ππ designa o vector

p-dimensional dos valores próprios relativos,

π

i, já que

π

1

=

1

. Nesse caso, ππ tem de ser colinear com um dos eixos coordenados, ou seja ter p-1 coordenadas nulas, e a restante coordenada com valor ±1. Como a matriz V é semi-definida positiva, e dada a ordenação admitida para os valores próprios, isso significaria

π

1

=

1

e

1

,

0

>

=

i

i

π

. Assim, V tem de ser uma matriz de característica 1.

iii) Já vimos que

cos( ,

V I

p

)

i i p

p

=

=

1

2 1

π

para qualquer matriz s.d.p. V. No caso

de V ser de característica k, os últimos p-k valores próprios de V serão nulos, pelo que

=

=

k= i i p i i 1 2 1 2

π

π

. Designando por ππ o vector k-dimensional cujos elementos são os k valores próprios relativos não-nulos de V,

{ }

π

i ki=1, vemos que

p k p p

=

2 1

)

,

cos(

V

I

π , já que

π

2 1

π

1

k e

π

1

=

1

. A igualdade verifica-se se e só se 1 1 2

π

π

=

k , situação que equivale a ter todos os elementos do vector ππ iguais, isto é, todos os valores próprios não-nulos de V iguais.

(c.q.d.)

O Teorema mostra que o cone de matrizes pxp semi-definidas positivas

D

ptem uma estrutura estratificada, com sucessivos sub-cones encaixados, conforme ilustrado na Figura.

(6)

No centro do cone encontra-se o raio central, definido pela matriz identidade

I

p. Na região que rodeia o raio central, e que é constituída por matrizes cujos raios associados definem ângulos com o raio central menores que

arccos

p 1p− , apenas poderemos encontrar matrizes de característica plena (característica p). Esse núcleo é rodeado por uma fronteira constituída pelas matrizes pxp cujo ângulo com o raio central é precisamente

arccos

p 1p− . Essas matrizes podem ser de característica plena, ou de característica p-1, mas neste último caso apenas se forem múltiplos escalares de matrizes de projecção ortogonal sobre algum subespaço de dimensão p-1. Segue-se um estrato constituído por matrizes cujo ângulo

θ

com o raio central se encontra no intervalo

arccos

pp−1

< <

θ

arccos

pp−2 . Nesse estrato encontram-se apenas matrizes de característica p ou p-1. Na fronteira desse estrato constituída pelas matrizes cujo ângulo com o raio central é precisamente

arccos

p

p

−2

encontramos, além de matrizes de característica p ou p-1, também matrizes de característica p-2, mas apenas se forem múltiplos escalares de matrizes de projecção sobre subespaços de

p de dimensão p-2. Segue-se um novo estrato, composto por matrizes cujo ângulo

θ

com o raio central satisfaz

arccos

p

arccos

p

p p

−2

< <

θ

−3

, onde residem matrizes de características p,

p-1 e p-2, terminando numa fronteira definida por

θ

=

arccos

pp

3

, onde surgem também múltiplos escalares de matrizes de projecção sobre subespaços de dimensão p-3. Sucessivos estratos, definidos de forma análoga à medida que aumenta o ângulo

θ

, irão passar a incluir matrizes de características cada vez mais baixas. A região exterior do cone é constituída pelas matrizes que definem raios que formam um ângulo

arccos

1

p com o raio central. Essas

matrizes são precisamente as matrizes pxp de característica 1, isto é, matrizes da forma

λxx

t

para algum vector

x

∈ℜ

p

e

λ

∈ℜ

+.

Embora matrizes de características baixas não se possam encontrar perto do núcleo central do cone, que rodeia o eixo central, podem-se encontrar matrizes de características elevadas, ou até de característica plena, em todo o cone (excepto se formam o ângulo máximo

raio central

cone de matrizes semi-definidas positivas

(7)

com o raio central, admissível exclusivamente para matrizes de característica 1). Tal facto não é motivo de surpresa, pois matrizes de característica plena podem ter valores próprios arbitrariamente próximos de zero, comportando-se como matrizes de característica reduzida do ponto de vista da variância dos seus valores próprios relativos que, como vimos no Teorema, determina em última análise o posicionamento angular de cada matriz no cone das matrizes semi-definidas positivas. E é precisamente este facto que sugere um critério para a escolha da redução de dimensionalidade admissível para um qualquer conjunto de dados.

3. O CRITÉRIO

Comecemos por introduzir o conceito de pseudo-característica duma matriz semi-definida positiva.

Definição. Seja V uma matriz pxp semi-definida positiva. A pseudo-característica de

V é o menor inteiro k* tal que

cos( ,

V I

)

*

p k

p

.

Trabalhando com as expressões anteriormente obtidas para

cos( ,

V I

p

)

é fácil de verificar que a pseudo-característica duma matriz s.d.p. é dada por:

k

tr

tr

i i p

*

( )

(

)

=

=

= ∑

1

2 1 2 2 π

V

V

(onde

 

x

designa o menor inteiro maior ou igual a x), já que

π

λ

λ i i p i i p j j p 2 1 2 1 1 2 =  

= ∑

= = .

Tendo em conta a estrutura do cone

D

p atrás discutida, a pseudo-característica duma matriz s.d.p. V corresponde à menor característica das matrizes s.d.p. que se encontram no mesmo estrato do cone que a matriz V. Esse posicionamento de V sugere que pode fazer

sentido reduzir a dimensionalidade de V até à sua pseudo-característica, mas não ulteriormente.

A título ilustrativo, apresentam-se na Tabela as dimensões e pseudo-características de algumas matrizes de covariâncias e correlações referidas na literatura estatística. Na Tabela indicam-se ainda as percentagens cumulativas de inércia associadas a uma redução para a dimensionalidade da pseudo-característica.

Dados Tipo de matriz No. variáveis

pseudo-característica

% inércia cumulativa

Iris verginica2 covariância 4 2 90,26

Iris verginica correlação 4 3 96,79

Iris setosa covariância 4 2 88,41

Iris setosa correlação 4 3 93,71

Iris versicolor covariância 4 2 89,67

Iris versicolor correlação 4 2 86,82

Alimentos Lebart3 covariância 7 2 96,46

Alimentos Lebart correlação 7 3 97,06

Pitprop4 correlação 13 6 86,9

2 Os dados relativos aos lírios devem-se a Fisher e encontram-se em numerosas fontes, e.g., (Krzanowski, 1988,

pg. 46).

(8)

Adelges5 correlação 19 2 85,5

Orheim6 correlação 9 4 85,75

Lagostins Somers7 covariância 13 2 90,00

Lagostins Somers correlação 13 3 83,35

Explorações

agrícolas8 correlação 62 15 78,80

4. A DISCUSSÃO

A escolha da dimensionalidade a reter, por meio da pseudo-característica da matriz de variâncias-covariâncias

Σ

(ou de correlações) dos dados sob análise, apresenta as seguintes vantagens:

i) é um critério objectivo, no sentido de não estar sujeito a apreciações diferenciadas por parte de utilizadores diferentes;

ii) é de cálculo muito fácil, envolvendo apenas os traços de

Σ

e de

Σ

2;

iii) entra em linha de conta com todos os valores próprios de

Σ

(através da variância dos valores próprios a dividir pelo traço de

Σ

), e não apenas com alguns, isto é, utiliza a totalidade da informação disponível;

iv) tem uma justificação geométrica, independentemente da natureza dos dados sob estudo;

v) não exige qualquer hipótese distribucional ou modelo subjacente.

Algumas destas vantagens (em particular as últimas) poderão ser encaradas como

desvantagens em situações particulares, como sejam quando se deseja estudar a

adequabilidade dum determinado modelo, ou quando a natureza da aplicação aconselha outros critérios de escolha. Mas na generalidade das situações onde uma análise factorial se aplica como técnica exploratória, a inexistência de hipóteses prévias sobre a natureza dos dados é, sem dúvida, uma vantagem.

Como para qualquer outro critério, haverá aspectos ou situações particulares onde se poderá considerar que a pseudo-característica indica um número excessivamente elevado ou reduzido de factores (CPs) a reter. Importa sublinhar que a pseudo-característica deve ser vista como uma dimensionalidade mínima admissível, no sentido de indicar que a matriz

Σ

está numa região do cone

D

p que está vedada a matrizes de características inferiores, mas que nada obsta a que se considerem aproximações de dimensionalidade superior. Por outro lado, o facto de cada estrato do cone ser delimitado por fronteiras onde se encontram matrizes de característica inferior (desde que tenham todos os valores próprios não-nulos iguais) criará situações onde poderia ser tentador considerar dimensionalidades inferiores às sugeridas pela pseudo-característica. Por exemplo, uma matriz de variâncias-covariâncias de dimensão 3 que tenha os dois primeiros valores próprios iguais, terá pseudo-característica 3 para valores arbitrariamente pequenos (mas não-nulos) do último valor próprio. No entanto, procurar-se ajustar o critério a fim de obviar a algumas situações deste tipo é, por um lado, um exercício condenado antecipadamente ao fracasso (haverá sempre matrizes arbitrariamente próximas de qualquer fronteira que se queira considerar) e por outro lado, destrói uma das vantagens do critério: a sua natureza objectiva.

4

Dados discutidos em (Jeffers, 1967).

5 Dados discutidos em (Jeffers, 1967). 6

Dados apresentados por Orheim e discutidos em (McCabe, 1984).

7

Dados discutidos em (Cadima & Jolliffe, 2001).

(9)

Por tudo quanto ficou dito, considera-se que a pseudo-característica da matriz de variâncias-covariâncias (ou de correlações) dum conjunto de dados é uma boa escolha para a dimensionalidade mínima admissível na redução da dimensionalidade desses dados.

REFERÊNCIAS BIBLIOGRÁFICAS

CADIMA, J. “Algumas aplicações do Produto Interno Matricial Usual na Análise de Componentes Principais”, in A Estatística a Decifrar o Mundo, Actas do IV Congresso Anual da Sociedade Portuguesa

de Estatística, Edições Salamandra, pgs. 273-280, 1997.

CADIMA, J. & JOLLIFFE, I.T. “Variable selection and the interpretation of principal subspaces”, Aceite para publicação no Journal of Agricultural, Biological and Environmental Statistics, 2001.

HILL, R.D. & WATERS, S.R. “On the cone of positive semi-definite matrices”, Linear Algebra and its

Applications, 90, pgs. 81-88, 1987.

HORN, R. & JOHNSON, C. “Matrix Analysis”, Cambridge University Press, 1986.

JEFFERS, J.N.R. “Two case studies in the application of principal component analysis”, Applied Statistics, 16, pgs. 225-236, 1967.

JOLLIFFE, I.T. “Principal Component Analysis”, Springer-Verlag, 1986.

KRZANOWSKI, W.J., “Principles of Multivariate Analysis”, Oxford University Press, 1988.

LEBART, L.; MORINEAU, A. & FÉNELON, J.-P., “Traitment des données statistiques”, Dunod, 1982.

McCABE, G.P., “Principal Variables”, Technometrics, 26(2), pgs. 137-144.

RICHMAN, M.B.; ANGEL, J.R. & GONG, X. “Determination of Dimensionality in Eigenanalysis”, Proceedings of the 5th International Meeting on Statistical Climatology, Toronto, 1992.

TARAZAGA, P. “Eigenvalue estimates for symmetric matrices”, Linear Algebra and its Applications, 135, pgs. 171-179, 1990.

Referências

Documentos relacionados

(2013 B) avaliaram a microbiota bucal de oito pacientes submetidos à radioterapia na região de cabeça e pescoço através de pirosequenciamento e observaram alterações na

O objetivo do curso foi oportunizar aos participantes, um contato direto com as plantas nativas do Cerrado para identificação de espécies com potencial

Os maiores coeficientes da razão área/perímetro são das edificações Kanimbambo (12,75) e Barão do Rio Branco (10,22) ou seja possuem uma maior área por unidade de

O valor da reputação dos pseudônimos é igual a 0,8 devido aos fal- sos positivos do mecanismo auxiliar, que acabam por fazer com que a reputação mesmo dos usuários que enviam

Contudo, sendo um campo de pesquisa e de atuação muito específico e novo no Brasil, ainda existe uma série de dificuldades para a eleição de parâmetros de conservação

P ara acompanhar o desenvolvimento social de Macau, desde 1 de Dezembro de 2011, além da Estação Central, Estação Postal da Nova Taipa, Estação Postal dos Jardins do Oceano

Nessa situação temos claramente a relação de tecnovívio apresentado por Dubatti (2012) operando, visto que nessa experiência ambos os atores tra- çam um diálogo que não se dá