• Nenhum resultado encontrado

2.4 CONCLUSÕES

4.2.2 Análise discriminante para distinção de espécies em cada grupo

A análise discriminante é apropriada quando a variável dependente é discreta (nominal) e as variáveis independentes são contínuas (mensuráveis), ou seja:

Y1 = X1 + X2 + X3 +...+Xn (nominal) (mensuráveis)

Portanto, os grupos formados pela análise de agrupamento, por meio da matriz primária, foram utilizados como variáveis dependentes e o valor de cobertura de cada espécie como uma variável independente. O propósito foi determinar quais variáveis (espécies) explicam o máximo de diferenças entre os grupos, bem como as funções discriminantes capazes de diferenciar estes grupos formados por aquelas variáveis.

4.2.2.1 Seleção das variáveis independentes

Para Murray (1977) deve-se escolher um subconjunto de variáveis que forneçam o menor número de classificações erradas entre a base de dados. Para mais de 14 ou 15 variáveis, o número de subconjuntos envolvidos dificulta o tratamento, e deve-se considerar alguma forma de procedimento seqüencial. Assim dois procedimentos bastante utilizados são seleção forward e eliminação backward.

O método stepwise é uma combinação dos procedimentos forward e backward. Neste procedimento, as variáveis são colocadas no modelo uma a uma, de acordo com o valor de F parcial de entrada em cada estágio. Quanto maior for este valor (menor p-nível) maior será a seletividade para entrada das variáveis (MINGOTI, 2005).

Para a seleção das variáveis, na análise discriminante foi utilizado primeiramente todas as espécies (matriz primária de 140 parcelas por 131 espécies) como variáveis independentes. Observou-se que algumas destas, com ocorrência rara nas áreas, foram selecionadas pelo método stepwise. Para exemplificar, um caso particular foi observado Solanum reitzii, com apenas dois indivíduos na área A e, uma vez ocorrendo em apenas duas parcelas, o método identificou como um caso particular daquele grupo em que a espécie se encontrava a priori.

Portanto, foram retiradas as espécies consideradas raras, as quais poderiam influenciar de forma negativa os resultados. A remoção das espécies foi feita de forma empírica observando os seguintes critérios: 1) Espécies não identificadas; 2) Freqüência em até duas parcelas; 3) Freqüência em 3 a 5 parcelas desde que não estivessem agrupadas.

4.2.2.2 Determinação das funções discriminantes

De acordo com Hair et al. (1998), quando duas classificações estão envolvidas, a técnica é chamada de análise discriminante de dois grupos. Quando três ou mais classificações são identificadas, a técnica é chamada de análise discriminante múltipla. A técnica envolve determinar uma variável estatística, representada pela combinação linear de duas (ou mais) variáveis independentes que discriminarão melhor entre grupos definidos a priori. A discriminação é conseguida, estabelecendo-se os pesos da variável estatística para cada variável, maximizando a variância entre grupos e minimizando dentro dos grupos. A combinação linear para uma análise discriminante, também conhecida como função discriminante, é determinada a partir de uma equação que assume a seguinte forma:

nk n k k jk a W X W X W X Z = + 1 1 + 2 2 +...+ onde:

Zjk = escore Z discriminante da função discriminante j para o objeto k

a = intercepto

Wi = peso discriminante para a variável independente i

Xik = variável independente i para o objeto k

Fisher (1936) introduziu a idéia de se construir funções discriminantes a partir de combinações lineares das variáveis originais, chamadas de funções discriminantes canônicas. Muitas vantagens são obtidas quando o interesse é separar várias populações para (1) inspeção visual ou (2) para propostas descritas graficamente (JOHNSON; WICHERN, 2002), como:

a) representação conveniente das

g

populações, pois reduz as dimensões

de um grande número de características para relativamente poucas combinações lineares. Naturalmente algumas informações – necessárias para a classificação ótima – podem ser pedidas, a menos que as médias das populações estejam completamente selecionadas no espaço dimensional reduzido.

b) plotagem das médias (centróides) em função das duas ou três primeiras combinações lineares (discriminantes). Isto ajuda a mostrar as relações e possibilidades de agrupamentos das populações.

c) plotagem da dispersão dos valores amostrais das duas primeiras discriminantes, que podem indicar “outliers” ou outras anormalidades dos dados.

É interessante observar que, apesar do método de Fisher conter em sua formulação básica, a suposição de distribuição normal p-variada, na realidade o que se utiliza para elaboração das funções canônicas é a noção de análise de variância para construção das combinações lineares mais informativas. Assim, é um método que não depende intrinsecamente da normalidade, podendo ser considerado como não paramétrico e aplicável em situações nas quais a normalidade multivariada não é válida (MINGOTI, 2005).

Maiores informações sobre a formulação do método com exemplos de aplicação podem ser consultadas em Mingoti (2005), Johnson e Wichern (2002, 5 ed.), ou ainda em suas edições anteriores (1998, 1992, 1988, 1982).

Depois que as funções discriminantes são computadas, a significância estatística é utilizada para verificar o poder discriminatório destas funções. A

estatística Lambda de Wilks (λ*), também aplicada por Longhi (1997) e Rivera

(2007), denota a significância estatística do poder de discriminação do modelo. O

valor de λ* varia de 0,0 (poder discriminatório perfeito) e 1,0 (sem poder

discriminatório). A variável que maximiza o valor da estatística F, também minimiza o

λ* (LONGHI, 1997).

4.2.2.3 Avaliação geral dos grupos

A primeira avaliação do ajuste geral do modelo foi feita graficamente com um Mapa Territorial, onde foram plotados os centróides das duas primeiras funções discriminantes.

De acordo com Hair et al. (1998) os gráficos geralmente são preparados para as primeiras duas ou três funções discriminantes (assumindo que elas são funções preditivas estatisticamente significantes e válidas). Os valores para cada

grupo mostram sua posição no espaço discriminante reduzido (assim chamado porque nem todas as funções e nem toda a variância, são representadas graficamente).

Outra avaliação utilizada foi a precisão preditiva de pertinência a grupo. Para tanto se fez necessário a construção de matrizes de classificação. Estas matrizes são úteis para verificar a probabilidade de classificações errôneas. Diz-se que um modelo discriminante é adequado quanto menor for o erro de classificar um objeto pertencente a uma determinada população quando na verdade pertence à outra população.

Há três métodos para estimar as probabilidades de classificações incorretas, e que são utilizados para construir matrizes de classificação: divisão da amostra, método da resubstituição e método de Lachenbruch.

Divisão da amostra: a amostra total (objetos) é dividida em dois grupos. O primeiro (amostra de análise) é usado para desenvolver a função discriminante, e o segundo (amostra de teste) usado para testar a função discriminante. Este método não foi utilizado nesta pesquisa por ter como desvantagem, a redução da amostra total, o que prejudicaria o ajuste da função discriminante. A divisão é recomendada, quando se tem uma amostra relativamente grande, em relação ao número de variáveis independentes (HAIR et al., 1998, MINGOTI, 2005).

Método da resubstituição: a amostra inteira é usada para estimar as regras de classificação, posteriormente esta mesma amostra é reutilizada para estimação dos erros de classificação. De acordo com Hair et al. (1998) também observado por Johnson e Wichern (2002), este procedimento resulta em um viés ascendente na precisão preditiva da função, mas certamente é melhor do que não testar a função de forma alguma.

Método de Lachenbruch: também conhecido como validação cruzada ou

pseudo-jackknife (LACHENBRUCH; MICKEY17, 1968, apud JOHNSON; WICHERN,

2002), é muito utilizado e está implementado na maioria dos softwares estatísticos como o SPSS. O método consiste nos seguintes passos:

1. retira-se uma observação da amostra conjunta, e desenvolve a função de classificação baseada nas n-1 observações restantes;

17

LACHENBRUCH, P. A., MICKEY, M. R. “Estimation of Error Rates in Discriminant Analysis”. Technometrics, v.10, n.1, p.1-11, 1968.

2. utiliza-se a função construída no passo 1 para classificar a observação que ficou a parte, verificando se a regra de discriminação conseguiu acertar na sua real procedência ou não;

3. retorna-se a observação que foi retirada no passo 1 à amostra original e retira-se uma outra observação diferente do primeiro. Os passos 1 e 2 são repetidos;

Os passos 1, 2 e 3 devem ser repetidos para todos os elementos da amostra conjunta e as probabilidades dos erros de classificação incorretas, no caso de várias populações, são então estimadas por:

j jk n n j k pˆ( / )=

onde njk é o número de elementos da população j classificados incorretamente pela

regra como sendo provenientes da população k ; j, k = 1, 2,...,g, j k.

Documentos relacionados