• Nenhum resultado encontrado

Testes Estat´ısticos para Avalia¸c˜ ao dos M´ etodos Propostos

A.4 Resultados do classificador OSOPF 2 no dataset CALTECH-256

4.7 Testes Estat´ısticos para Avalia¸c˜ ao dos M´ etodos Propostos

Propostos

Utilizou-se o m´etodo estat´ıstico An´alise de Variˆancia (ANOVA) junto a Tukey’s HSD para comparar os classificadores desenvolvidos nesta pesquisa com os propostos em [41, 42], com o objetivo de verificar se existe diferen¸ca estat´ıstica entre eles.

ANOVA [43, 74] ´e um m´etodo explorat´orio para analisar dados experimentais e ´e muito utilizado em v´arias aplica¸c˜oes estat´ısticas. O prop´osito do An´alise de Variˆan¸ca ´e identificar se existe diferen¸cas significativas entre a m´edia de grupos de valores de um conjunto de experimentos, em que existem vari´aveis de resposta que dependem de certas combina¸c˜oes e vari´avies de classifica¸c˜ao. Com ANOVA, avaliou-se se existe diferen¸ca estat´ıstica significativa entre as m´edias dos resultados de cada classificador.

A an´alise estat´ıstica baseada bo uso do ANOVA n˜ao ajuda a saber quais classificadores diferem do resto. Para isto, foi utilizado Tukey Honest Significant Differences (HSD) [30], tamb´em chamado de teste das compara¸c˜oes. Tukey’s HSD faz compara¸c˜oes pairwise entre as m´edias e apresenta a diferen¸ca entre cada par de m´edias no P-value ou em um intervalo de confian¸ca. Com este m´etodo, procuram-se as diferen¸cas entre os resultados de cada classificador e determina-se se existe diferen¸ca estat´ıstica significativa entre cada par de classificadores. Para confirmar a diferen¸ca estat´ıstica entre os m´etodos, levou-se em considera¸c˜ao 95% como intervalo de confian¸ca nos resultados gerados pelo teste estat´ıstico. Utilizou-se a mesma metodologia proposta em [41, 42]: foram feitas 10 execu¸c˜oes para cada classificador com n classes conhecidas (3, 6, 9, 12, 15). Ou seja, foram realizadas 10 execu¸c˜oes utilizando 3 classes do dataset como classes conhecidas e cada execu¸c˜ao ´e feita com um conjunto diferente de classes conhecidas. O mesmo foi feito para 6, 9, 12 e 15 classes conhecidas.

Figura 4.8: Matriz de confus˜ao para problemas open set utilizada no c´alculo das me- didas precision e recall. Exemplo com 4 classes conhecidas e com amostras de classes desconhecidas (U). S˜ao considerados os falsos desconhecidos (f ni na coluna U) e falsos conhecidos (f pi na linha U). No entanto, os valores da interse¸c˜ao da coluna U e linha U n˜ao s˜ao considerados como verdaderos desconhecidos (tp).

Resultados dos Experimentos e

Discuss˜ao

Neste cap´ıtulo, apresentam-se os resultados obtidos pelos classificadores propostos em [41, 42] e os desenvolvidos neste trabalho (Se¸c˜ao 3) nos datasets ALOI e CALTECH- 256. Todos os experimentos consideraram os descritores: ACC, BIC, CCV, LAS e QCCH (Se¸c˜ao 4.3). Para fins de compara¸c˜ao, foram selecionados os descritores que obtiveram os melhores resultados com os classificadores OSOPF1 e OSOPF2, os resultados desses experimentos s˜ao reportados no Apˆendice A.

A Se¸c˜ao 5.1 apresenta os resultados obtidos com os classificadores propostos nesta pesquisa e a Se¸c˜ao 5.2 mostra os resultados dos testes estat´ısticos aplicados para verificar se existe diferen¸ca estat´ıstica entre os classificadores avaliados.

5.1

Resultados dos M´etodos Propostos

Esta se¸c˜ao apresenta os resultados dos m´etodos para fus˜ao de dados propostos neste trabalho junto com os classificadores OSOPF1 e OSOPF2. Nas Figuras 5.1 e 5.2 s˜ao apresentados os resultados dos m´etodos OSOPF1, OSOPF1-CGP, OSOPF1-OGP, Voting- OSOPF1, OSOPF2, OSOPF2-CGP, OSOPF2-OGP e Voting-OSOPF2 nos datasets ALOI e CALTECH-256, respectivamente. Nesta se¸c˜ao, chamaremos “M´etodos OSOPF1” ao conjunto de m´etodos composto pelo classificador OSOPF1 e todos os m´etodos GP ba- seados nele; e “M´etodos OSOPF2” ao grupo de classificadores composto pelo m´etodo OSOPF2 e todos os m´etodos GP baseados nele.

As Figuras 5.1a e 5.2a mostram a acur´acia normalizada dos m´etodos OSOPF1 nos da- tasets ALOI e CALTECH-256, respectivamente. Observa-se que no ALOI (Figura 5.1a), para 3 e 6 classes conhecidas, o melhor classificador foi o OSOPF1-OGP, para 9 clas- ses o melhor foi o OSOPF1 e para 12 e 15 classes o Voting-OSOPF1 superou o resto de classificadores. Observa-se ainda que as acur´acias dos classificadores v˜ao melhorando na medida em que o n´umero de classes conhecidas vai aumentando. Este fenˆomeno faz com que o Voting-OSOPF1 melhore seus resultados consideravelmente. Por outro lado, no da- taset CALTECH-256 (Figura 5.2a) que ´e um conjunto com maior grau de dificuldade na classifica¸c˜ao pelo tipo de imagens que cont´em, os m´etodos propostos obtiveram acur´acias

(a) M´etodos OSOPF1. (b) M´etodos OSOPF2.

Figura 5.1: Resultados dos m´etodos GP no dataset ALOI.

(a) M´etodos OSOPF1. (b) M´etodos OSOPF2. Figura 5.2: Resultados dos m´etodos GP no dataset CALTECH-256.

relativamente melhores que o classificador OSOPF1, excetuando o experimento que con- sidera 15 classes conhecidas, no qual o OSOPF1 s´o ´e melhor do que o OSOPF1-OGP. O classificador Voting-OSOPF1 foi o melhor em todos os experimentos.

As acur´acias normalizadas dos m´etodos OSOPF2 nos datasets ALOI e CALTECH-256 ´e apresentada nas Figuras 5.1b e 5.2b. Na Figura 5.1b, nota-se que os m´etodos Voting- OSOPF2 e OSOPF2-OGP foram os melhores em todos os experimentos. Al´em disso, o m´etodo OSOPF2-CGP obteve resultados relativamente melhores do que o OSOPF2 para 6, 9, 12 e 15 classes conhecidas. No dataset CALTECH, o OSOPF2 foi relativamente melhor para 3 e 6 classes conhecidas, enquanto que o OSOPF2-OGP foi melhor nos outros casos.

Nas Figuras 5.3 (ALOI) e 5.4 (CALTECH-256), apresentam-se a acur´acia das amostras de classes conhecidas (AKS), das classes desconhecidas (AUS) e a acur´acia normalizada (NA) correspondentes a todos os m´etodos utilizados neste trabalho. No conjunto de ima- gens ALOI (Figura 5.3), os classificadores baseados no m´etodo OSOPF1 e OSOPF2 obti- veram os melhores resultados na AKS (Figura 5.3a) e AUS (Figura 5.3b), respectivamente.

Por´em, a diferen¸ca nos resultados da AKS entre os m´etodos OSOPF1 e OSOPF2 ao foi muito grande; diferente do que aconteceu em rela¸c˜ao `a AUS, em que os m´etodos OSOPF2 s˜ao amplamente melhores do que os OSOPF1. ´E por isso que os m´etodos OSOPF2 ob- tiveram uma melhor acur´acia normalizada (Figura 5.3c) nos experimentos para 3, 6, 9, 12 e 15 classes conhecidas. No dataset CALTECH (Figura 5.4), o m´etodo OSOPF1-CGP tem a melhor AKS (Figura 5.4a) enquanto o m´etodo Voting-OSOPF2 a melhor AUS (Fi- gura 5.4b). A Figura 5.4c mostra que em rela¸c˜ao `a acur´acia normalizada, para 3 e 6 classes conhecidas o classificador relativamente melhor foi o OSOPF2. Nos demais experimentos, os melhores classificadores foram o Voting-OSOPF1 e OSOPF2-OGP.

No dataset ALOI, a microAverage-F-Measure (Figura 5.3d) e macroAverage-F-Measure (Figura 5.3e) aumentam seus valores na medida em que o openness vai diminuido. Por ou- tro lado, no dataset CALTECH, a microAverage-F-Measure (Figura 5.4d) e macroAverage- F-Measure (Figura 5.4e) n˜ao s˜ao muito afetadas pelo grau de openness, dado que os valores de classifica¸c˜ao n˜ao s˜ao muito altos (dataset dif´ıcil de classificar).

Os m´etodos desenvolvidos neste trabalho obtiveram melhores resultados na maior parte dos experimentos. A combina¸c˜ao de diferentes descritores com programa¸c˜ao gen´etica e Majority Voting permitiu obter melhores resultados no reconhecimento de objetos em cen´arios abertos, j´a que cada descritor contribui com diferentes “vis˜oes” acerca do conte´udo visual das imagens.

Observa-se nos resultados dos experimentos realizados que os m´etodos baseados no OSOPF1 s˜ao melhores na acur´acia das amostras das classes conhecidas (AKS) e os m´etodos baseados no OSOPF2 s˜ao melhores na acur´acia das amostras das classes des- conhecidas (AUS). O OSOPF1 obt´em melhores resultados na AKS porque a decis˜ao do classificador para atribuir um label a uma amostra depende se os dois melhores caminhos oferecidos pela floresta de caminhos ´otimos pertencem `a mesma classe. Desta forma existe um certo grau de especializa¸c˜ao do classificador nas amostras das classes conhecidas j´a que todas as amostras mais fortemente ligadas a uma determinada classe ser˜ao etiquetadas como sendo desta classe. Por outro lado, os m´etodos OSOPF2 possuem uma alta AUS porque s˜ao baseados na propor¸c˜ao das distˆancias dos dois melhores caminhos at´e ´arvores com amostras de classes diferentes, com isto, todas as amostras que est˜ao em regi˜oes onde existe overlapping (amostras de diferentes classes que possuem vetores de caracter´ısticas similares) s˜ao classificadas como desconhecidas e n˜ao como parte de uma das classes que est˜ao na regi˜ao de overlapping.

Nos resultados, tamb´em se pode observar que os m´etodos CGP (treino fechado) con- seguiram uma boa especializa¸c˜ao do classificador na classifica¸c˜ao das amostras, com isto, obtiveram-se bons resultados na AKS. Entretanto, os m´etodos OGP obtiveram melhores resultados na AUS porque lograram uma boa generaliza¸c˜ao do classificador na classi- fica¸c˜ao das amostras. Finalmente, embora o Majority Voting seja uma t´ecnica f´acil de implementar para combinar dados, os m´etodos Voting-OSOPF1 e Voting-OSOPF2 ob- tiveram resultados promissores no reconhecimento de amostras de classes conhecidas e desconhecidas, respectivamente. De fato, dentre os m´etodos avaliados neste trabalho, o Voting-OSOPF2e o OSOPF2-OGP foram os m´etodos com os resultados mais promissores.

(a) Acur´acia das classes conhecidas (AKS). (b) Acur´acia das classes desconhecidas (AUS).

(c) Acur´acia normalizada (NA).

(d) microAverage-F-Measure. (e) macroAverage-F-Measure.

(a) Acur´acia das classes conhecidas (AKS). (b) Acur´acia das classes desconhecidas (AUS).

(c) Acur´acia normalizada (NA).

(d) microAverage-F-Measure. (e) macroAverage-F-Measure.

Documentos relacionados