• Nenhum resultado encontrado

TESTE DE HIP ´ OTESE

No documento AO DE TEXTURAS BASEADA EM QUANTIZAC (páginas 45-55)

O MLVQP ´e uma extens˜ao do LVQP, ele possui maior taxa de acerto quando analisado principalmente em testes com menos itens no conjunto de treino, suas maiores diferen¸cas de taxa de acertos ocorreram nesse tipo de cen´ario. Os resultados que conse- guiram a maior diferen¸ca de acur´acia, foram submetidos ao teste de hip´otese de Z com uma intervalo de confian¸ca de 95,00%.

O teste Z [36] ele serve para comparar m´edias populacionais com variˆancias conhe- cidas. No nosso caso as m´edias populacionais ser˜ao as m´edias das acur´acias dos testes. Para os testes foram consideradas duas hip´oteses: a nula na qual os m´etodos LVQP tem m´edia de acur´acia menor ou igual ao MLVQP e a hip´otese alternativa o m´etodo MLVQP possui uma acur´acia m´edia superior. Os testes foram aplicados de forma n˜ao pareada e considerando os eventos independentes, sendo realizado um teste para cada caso.

Podemos observar na Figura 28 o gr´afico comparando a acur´acia da base UIUC quando atingiu seu m´aximo valor, com 128 clusters, com raio 3 (R=3) e com 24 vizinhos (P=24) ao n´umero de exemplos no conjunto de treinamento.

5 10 15 20 70 80 90 100

LVQP x MLVQP − 128 Cluster − R =3, P=24

Número de Fold’s Acur ácia MLVQP LVQP

Figura 28: Compara¸c˜ao do LVQPxMLVQP na base UIUC

Considerando a compara¸c˜ao das acur´acias no gr´afico da Figura 28, com o holdout igual a 5 temos a maior diferen¸ca, realizando o teste de hip´otese para esse holdout temos as seguintes equa¸c˜oes:

H0 : µ1 ≤ µ2 (16)

H1 : µ1 > µ2 (17)

Em que H0 ´e a hip´otese nula, na equa¸c˜ao (17) temos H1 com a hip´otese a ser

validada, µ1 ser´a a m´edia do m´etodo MLVQP e µ2 a m´edia do m´etodo LVQP. Como j´a

foi citado ser´a aplicado o teste Z que ´e definido da seguinte forma:

z = qx¯1− ¯x2 σ2 1 n1 + σ2 2 n2 (18) Com z na equa¸c˜ao (18) sendo o score, ¯x1 ser´a a m´edia do m´etodo MLVQP e ¯x2

a m´edia do m´etodo LVQP, σ1 o desvio padr˜ao da m´edia do LVQP e σ2 o desvio padr˜ao

da m´edia do MLVQP e por fim n1 e n2, sendo o n´umero de testes do LVQP e MLVQP

respectivamente.

Para este caso temos que ¯x1 ´e igual a 80.21%, ¯x1 com 76.82%, com desvio padr˜ao

de 1.75% e 1.87% respectivamente. Como foi dito anteriormente o valor de n ´e equivalente 46

ao total de testes, ou seja, n1 e n2 s˜ao iguais a 100. Aplicando o score z temos que: z = q80.21 − 76.82 1.752 100 + 1.872 100 = 13.23 (19)

O valor de z foi grande, ou seja, na Tabela z tende ao infinito. Dado que φ(z) a fun¸c˜ao de retorno do valor de score da Tabela z, podemos considerar o valor de φ(z > 3) ∼= 1. Com o intervalo de confian¸ca de α = 0.05. Como p = 1 − φ(z) e φ(z) se aproxima de 1, temos que o p se aproxima de 0. Como que resulta em p < α, ou seja, rejeitando a hip´otese nula, concluindo-se que o m´etodo proposto possui uma acur´acia m´edia maior.

Para a base KHT-TIPS2b, o resultado se apresenta de forma semelhante, seu melhor resultado ocorreu quando possu´ıa 128 clusters, raio 3 (R=3) e com 24 vizinhos (P=24) . A seguir temos o gr´afico na Figura 28 demonstrando uma compara¸c˜ao das acur´acias entre os dois m´etodos em rela¸c˜ao aos holdouts de teste.

10 20 30 40 50 70 80 90 100

LVQP x MLVQP − 128 Cluster − R =3, P=24

Número de Fold’s Acur ácia MLVQP LVQP

Figura 29: Compara¸c˜ao do LVQPxMLVQP base KTH-TIPS2

Considerando a compara¸c˜ao das acur´acias no gr´afico da Figura 29, com N = 5 temos a maior diferen¸ca de acur´acia, realizando o teste de forma similar ao anterior sendo a hip´otese nula da equa¸c˜ao 16, com a hip´otese a ser testada da equa¸c˜ao 17.

Considerando a equa¸c˜ao (18), referente ao valor de Z, neste caso temos que ¯x1 ´e

igual a 63.12%, ¯x1 com 61.24%, com desvio padr˜ao de 2.65% e 2.95% respectivamente.

Como foi dito anteriormente o valor de n ´e equivalente ao total de testes, ou seja, n1 e n2

s˜ao iguais a 100. Aplicando temos que: 47

z = q63.12 − 61.24 2.652 100 + 2.952 100 = 5.04. (20)

O valor de z foi grande, ou seja, na Tabela z tende ao infinito. Dado que φ(z) a fun¸c˜ao de retorno do valor de score da Tabela z, podemos considerar o valor de φ(z > 3) ∼= 1. Com o intervalo de confian¸ca de α = 0.05. Como p = 1 − φ(z) e φ(z) se aproxima de 1, temos que o p se aproxima de 0. Como que resulta em p < α, ou seja, rejeitando a hip´otese nula, concluindo-se que o m´etodo proposto possui uma acur´acia m´edia maior.

Na base KTH-TIP, foi onde ocorreu a menor diferen¸ca entre resultados, mas ainda sim obteve uma melhora na acur´acia, mas com o LBP se mantendo na maioria dos casos com a acur´acia superior ao LVQP e MLVQP. A base UIUC atingiu seu m´aximo valor, com 128 clusters, com raio 3 (R=3) e com 24 vizinhos (P=24). A seguir temos o gr´afico na Figura 29 demonstrando uma compara¸c˜ao das acur´acias entre os dois m´etodos em rela¸c˜ao aos holdouts de teste:

5 10 15 20 25 30 35 40 60 70 80 90

LVQP x MLVQP − 128 Cluster − R =3, P=24

Número de Fold’s Acur ácia MLVQP LVQP

Figura 30: Compara¸c˜ao do LVQPxMLVQP base KTH-TIPS2

Considerando a compara¸c˜ao das acur´acias no gr´afico da Figura 30 com o holdout igual a 5 temos a maior diferen¸ca de acur´acia, realizando o teste de forma similar ao anterior aplicando a hip´otese nula da equa¸c˜ao 16, com a hip´otese a ser testada da equa¸c˜ao 17:

Aplicando a equa¸c˜ao (18), referente ao valor de Z, neste caso temos que ¯x1 ´e igual

a 80.57%, ¯x1 com 75.51%, com desvio padr˜ao de 2.51% e 2.43% respectivamente. Como

foi dito anteriormente o valor de n ´e equivalente ao total de testes, ou seja, n1 e n2 s˜ao

iguais a 100. Aplicando temos que: z = q80.57 − 75.51 2.512 100 + 2.432 100 = 14.48 (21)

O valor de z foi grande, ou seja, na Tabela z tende ao infinito. Dado que φ(z) a fun¸c˜ao de retorno do valor de score da Tabela z, podemos considerar o valor de φ(z > 3) ∼= 1. Com o intervalo de confian¸ca de α = 0.05. Como p = 1 − φ(z) e φ(z) se aproxima de 1, temos que o p se aproxima de 0. Como que resulta em p < α, ou seja, rejeitando a hip´otese nula, concluindo-se que o m´etodo proposto possui uma acur´acia m´edia maior.

Os gr´aficos refor¸cam a hip´otese acima, quanto menor a quantidade de imagens para treino fica maior a diferen¸ca de acur´acia. Ainda que o MLVQP se mantenha superior na maioria dos casos, sua maior vantagem ´e com conjuntos de imagens pequenos para treino. Um dos poss´ıveis motivos do MLVQP possuir uma maior acur´acia em rela¸c˜ao ao LVQP com conjunto de de imagens pequeno para treino, pode ser por conseguir gerar um vetor de caracter´ısticas maior. Como o vetor de caracter´ısticas do LVQP possui k o vetor de caracter´ısticas do MLVQP tem 2k. Com rela¸c˜ao ao tempo computacional n˜ao foi executadas nenhuma m´etrica. Por´em ´e not´avel que o m´etodo n˜ao consome muito mais tempo do que executar duas vezes o LVQP. O DQP n˜ao tem um tempo de execu¸c˜ao maior que o LVQP, pois n˜ao necessita de rota¸c˜oes para executar a busca. E o MLQVP executa o LVQP e DQP.

5

CONCLUS ˜OES

Como foi visto neste trabalho o reconhecimento de texturas continua sendo um problema atual. Com aplica¸c˜oes em diversas ´areas como: industria de min´erio, medicina, mercado agr´ıcola, entre outras. Existem diversas abordagens relacionadas a classifica¸c˜ao de texturas: de redes neurais a modelagem estat´ıstica. Dos mais diversos m´etodos exis- tentes um que se destacou foi o LBP. O LBP possui um impressionante poder de des- cri¸c˜ao por´em possui diversas limita¸c˜oes, como sensibilidade ao ru´ıdo, rota¸c˜ao e mudan¸ca de escala. Para isso foram criadas diversas modifica¸c˜oes, uma delas que apresentou um aumento consider´avel na acur´acia foi a LVQP que aplica uma quantiza¸c˜ao de vetor.

Apesar do LVQP apresentar maior acur´acia em rela¸c˜ao ao LBP ele ainda possui algumas limita¸c˜oes. Em boa parte relacionada a sua redu¸c˜ao dr´astica de dimens˜oes. Tendo este problema em vista aqui foram propostas duas abordagens: a DQP e MLVQP. O DQP ´e uma modifica¸c˜ao do LVQP, a qual realiza quantiza¸c˜ao na diferen¸cas entre o pixel central e seus vizinhos. O MLVQP executa simultaneamente o LVQP com DQP e concatena os histogramas gerados por cada m´etodo.

O MLVQP apresenta acur´acia maior ou semelhante em compara¸c˜ao a m´etodos ao LBP e LVQP, chegando a valores m´aximos para cada base: UIUC com 95,35%, KTH- TIPS2 com 98,27% e KTH-TIPS com 94,89%. Com o resultado final deste trabalho temos o MLVQP sendo uma solu¸c˜ao aceit´avel para a classifica¸c˜ao de texturas. Demonstrando uma acur´acia superior na maioria dos testes efetuados, com diferen¸cas de acur´acia em alguns casos superior a 9%. As diferen¸cas de acur´acias s˜ao significativas de acordo com o teste de hip´otese.

Para trabalhos futuros com o MLVQP sugerimos paraleliza¸c˜ao do m´etodo. Tamb´em utilizar outros elementos para quantiza¸c˜ao al´em das diferen¸cas em rela¸c˜ao ao pixel central, com fazemos com o DQP.

REFERˆENCIAS

[1] P. Babaghorbani, S. Parvaneh, A. Ghassemi, and K. Manshai. Sonography images for breast cancer texture classification in diagnosis of malignant or benign tumors. In 2010 4th International Conference on Bioinformatics and Biomedical Engineering, pages 1–4, June 2010.

[2] Christopher M. Bishop. Pattern Recognition and Machine Learning (Information Science and Statistics). Springer-Verlag New York, Inc., Secaucus, NJ, USA, 2006. [3] Phil Brodatz. Textures : a photographic album for artists and designers. Dover

Publications, New York, 1966.

[4] Raymond H. Chan, Chung Wa Ho, and Mila Nikolova. Salt-and-pepper noise re- moval by median-type noise detectors and detail-preserving regularization. IEEE Transactions on Image Processing, 14(10):1479–1485, 2005.

[5] J. Chen, S. Shan, C. He, G. Zhao, M. Pietikainen, X. Chen, and W. Gao. Wld: A robust local image descriptor. IEEE Transactions on Pattern Analysis and Machine Intelligence, 32(9):1705–1720, Sept 2010.

[6] Jia-Lin Chen and A. Kundu. Rotation and gray scale transform invariant texture identification using wavelet decomposition and hidden markov model. IEEE Tran- sactions on Pattern Analysis and Machine Intelligence, 16(2):208–214, Feb 1994. [7] F. S. Cohen, Z. Fan, and M. A. Patel. Classification of rotated and scaled textured

images using gaussian markov random field models. IEEE Transactions on Pattern Analysis and Machine Intelligence, 13(2):192–202, Feb 1991.

[8] Thomas Cover and Peter Hart. Nearest neighbor pattern classification. IEEE tran- sactions on information theory, 13(1):21–27, 1967.

[9] K. J. Dana, S. K. Nayar, B. van Ginneken, and J. J. Koenderink. Reflectance and texture of real-world surfaces. In Computer Vision and Pattern Recognition, 1997. Proceedings., 1997 IEEE Computer Society Conference on, pages 151–157, Jun 1997. [10] Kristin J Dana, Bram Van Ginneken, Shree K Nayar, and Jan J Koenderink. Reflec- tance and texture of real-world surfaces. ACM Transactions On Graphics (TOG), 18(1):1–34, 1999.

[11] Larry S. Davis. Polarograms: A new tool for image texture analysis. Pattern Recog- nition, 13(3):219–223, 1981.

[12] Jacques Duvernoy. Optical–digital processing of directional terrain textures invariant under translation, rotation, and change of scale. Applied Optics, 23(6):828–837, Mar 1984.

[13] G. Eichmann and T. Kasparis. Topologically invariant texture descriptors. Computer Vision, Graphic and Image Processing, 41(3):267–281, March 1988.

[14] Mario Fritz, Eric Hayman, Barbara Caputo, and Jan olof Eklundh. The kth-tips database, 2004. Dispon´ıvel em: www.nada.kth.se/cvap/databases/kth-tips/. [15] Y. Gan, X. Yao, E. Chang, S. B. Amir, H. Hibshoosh, S. Feldman, and C. P. Hendon.

Comparative study of texture features in oct images at different scales for human breast tissue classification. In 2016 38th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC), pages 3926–3929, Aug 2016.

[16] F. Garcia, J. Cervantes, A. Lopez, and M. Alvarado. Fruit classification by ex- tracting color chromaticity, shape and texture features: Towards an application for supermarkets. IEEE Latin America Transactions, 14(7):3434–3443, July 2016. [17] Raul Garreta and Guillermo Moncecchi. Learning scikit-learn: machine learning in

python. Packt Publishing Ltd, 2013.

[18] R. K. Goyal, W. L. Goh, D. P. Mital, and K. L. Chan. Scale and rotation invariant texture analysis based on structural property. In Industrial Electronics, Control, and Instrumentation, 1995., Proceedings of the 1995 IEEE IECON 21st International Conference on, volume 2, pages 1290–1294 vol.2, Nov 1995.

[19] Z. Guo, L. Zhang, and D. Zhang. A completed modeling of local binary pattern ope- rator for texture classification. IEEE Transactions on Image Processing, 19(6):1657– 1663, June 2010.

[20] Sibt ul Hussain and Bill Triggs. Visual Recognition Using Local Quantized Patterns, pages 716–729. Springer Berlin Heidelberg, Berlin, Heidelberg, 2012.

[21] Rodrigo Hajime Ito, Hae Yong Kim, Walter Jaimes Salcedo, and Universidade De S˜ao Paulo. Classifica¸c˜ao de Texturas Invariante a Rota¸c˜ao Usando Matriz de Co-ocorrˆencia. 8th International Information and Telecommunication Technologies Symposium, 2009.

[22] Ahmad Izanloo, Ali Khaksari Rafsanjani, and Saeed Pourmehdi Ebrahimi. Effect of commercial land use and accessibility factor on traffic flow in bojnourd. Journal of Urban Planning and Development, page 05016016, 2016.

[23] R. L. Kashyap and A. Khotanzad. A model-based method for rotation invariant tex- ture classification. IEEE Transactions on Pattern Analysis and Machine Intelligence, PAMI-8(4):472–481, July 1986.

[24] J. C. Kavitha and A. Suruliandi. Texture and color feature extraction for classi- fication of melanoma using svm. In 2016 International Conference on Computing Technologies and Intelligent Data Engineering (ICCTIDE’16), pages 1–6, Jan 2016. [25] S. Lazebnik, C. Schmid, and J. Ponce. A sparse texture representation using local affine regions. IEEE Transactions on Pattern Analysis and Machine Intelligence, 27(8):1265–1278, Aug 2005.

[26] S. H. Lee, J. Y. Choi, Y. M. Ro, and K. N. Plataniotis. Local color vector binary patterns from multichannel face images for face recognition. IEEE Transactions on Image Processing, 21(4):2347–2353, April 2012.

[27] Z. Lei, M. Pietik¨ainen, and S. Z. Li. Learning discriminant face descriptor. IEEE Transactions on Pattern Analysis and Machine Intelligence, 36(2):289–302, Feb 2014. [28] S. Liao, M. W. K. Law, and A. C. S. Chung. Dominant local binary patterns for texture classification. IEEE Transactions on Image Processing, 18(5):1107–1118, May 2009.

[29] Ching-Chuong Lin and Govind S Mudholkar. A simple test for normality against asymmetric alternatives. Biometrika, pages 455–461, 1980.

[30] W. J. Lin and S. S. Jhuo. Coin recognition based on texture classification on ring and fan areas of the coin image. In 2016 IEEE International Instrumentation and Measurement Technology Conference Proceedings, pages 1–6, May 2016.

[31] Y. Linde, A. Buzo, and R. Gray. An algorithm for vector quantizer design. IEEE Transactions on Communications, 28(1):84–95, Jan 1980.

[32] K. Ma, T. F. Y. Vicente, D. Samaras, M. Petrucci, and D. L. Magnus. Texture classification for rail surface condition evaluation. In 2016 IEEE Winter Conference on Applications of Computer Vision (WACV), pages 1–9, March 2016.

[33] M. Maharaja and T. Sivakumar. Classification of non-homogenous coal textures. In 2016 3rd International Conference on Advanced Computing and Communication Systems (ICACCS), volume 01, pages 1–4, Jan 2016.

[34] P Mallikarjuna, Alireza Tavakoli Targhi, Mario Fritz, Eric Hayman, Barbara Caputo, and Jan-Olof Eklundh. THE KTH-TIPS2 database. pages 1–10, 2006.

[35] Maur´ıcio Marengoni and Stringhini Stringhini. Tutorial: Introdu¸c˜ao `a Vis˜ao Compu- tacional usando OpenCV. Revista de Inform´atica Te´orica e Aplicada, 16(1):125–160, 2010.

[36] Adam Massey and Steven J Miller. Tests of Hypotheses Using Statistics. pages 1–32. [37] Moscato and Zuben. Uma Vis˜ao Geral de Clusteriza¸c˜ao de Dados. An´alise de Dados

em Bioinform´atica, 1999.

[38] T. Ojala, T. Maenpaa, M. Pietikainen, J. Viertola, J. Kyllonen, and S. Huovinen. Outex - new framework for empirical evaluation of texture analysis algorithms. In Pattern Recognition, 2002. Proceedings. 16th International Conference on, volume 1, pages 701–706 vol.1, 2002.

[39] T. Ojala, M. Pietikainen, and D. Harwood. Performance evaluation of texture me- asures with classification based on kullback discrimination of distributions. In Pro- ceedings of 12th International Conference on Pattern Recognition, volume 1, pages 582–585 vol.1, Oct 1994.

[40] T. Ojala, M. Pietikainen, and T. Maenpaa. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns. IEEE Transactions on Pattern Analysis and Machine Intelligence, 24(7):971–987, Jul 2002.

[41] M. Omar, F. Khelifi, and M. A. Tahir. Detection and classification of retinal fundus images exudates using region based multiscale lbp texture approach. In 2016 Inter- national Conference on Control, Decision and Information Technologies (CoDIT), pages 227–232, April 2016.

[42] Z. Pan, H. Fan, and L. Zhang. Texture classification using local pattern based on vector quantization. IEEE Transactions on Image Processing, 24(12):5379–5388, Dec 2015.

[43] Z. B. Pan, G. H. Yu, and Y. Li. Improved fast lbg training algorithm in hadamard domain. Electronics Letters, 47(8):488–489, April 2011.

[44] Zhibin Pan, K. Kotani, and T. Ohmi. A unified projection method for fast search of vector quantization. IEEE Signal Processing Letters, 11(7):637–640, July 2004. [45] X. Qi, R. Xiao, C. G. Li, Y. Qiao, J. Guo, and X. Tang. Pairwise rotation invariant

co-occurrence local binary pattern. IEEE Transactions on Pattern Analysis and Machine Intelligence, 36(11):2199–2213, Nov 2014.

[46] S. Rana, S. Jain, and J. Virmani. Classification of kidney lesions using gabor wavelet texture features. In 2016 3rd International Conference on Computing for Sustainable Global Development (INDIACom), pages 1705–1709, March 2016.

[47] J. Ren, X. Jiang, J. Yuan, and N. Magnenat-Thalmann. Sound-event classification using robust texture features for robot hearing. IEEE Transactions on Multimedia, PP(99):1–1, 2016.

[48] G. Schaefer and N. P. Doshi. Effective classification of hep-2 cells using fuzzy texture descriptors. In 2016 IEEE International Conference on Fuzzy Systems (FUZZ-IEEE), pages 1248–1252, July 2016.

[49] W R Schwartz and H Pedrini. M´etodo para Classifica¸c˜ao de Imagens Baseada em Matrizes de Co-ocorrˆencia Utilizando Caracter´ısticas de Textura. Col´oquio Brasileiro de Ciˆencias Geod´esicas, pages 1–11, 2003.

[50] X. Tan and B. Triggs. Enhanced local texture feature sets for face recognition under difficult lighting conditions. IEEE Transactions on Image Processing, 19(6):1635– 1650, June 2010.

[51] Julius T Tou and Rafael C Gonzalez. Pattern recognition principles. 1974.

[52] Hsieh Tsung-Han. Utechzone machine vision prize, Sep 2015. Dispon´ıvel em: http: //robinhsieh.com/?p=156.

[53] M. Varma and A. Zisserman. Texture classification: are filter banks necessary? In Computer Vision and Pattern Recognition, 2003. Proceedings. 2003 IEEE Computer Society Conference on, volume 2, pages II–691–8 vol.2, June 2003.

[54] M. Varma and A. Zisserman. A statistical approach to material classification using image patch exemplars. IEEE Transactions on Pattern Analysis and Machine Intel- ligence, 31(11):2032–2047, Nov 2009.

[55] Manik Varma and Andrew Zisserman. A statistical approach to texture classification from single images. International Journal of Computer Vision, 62(1):61–81, 2005. [56] Steve Wright. Digital compositing for film and video. Focal Press, 2002.

[57] J. Yang, X. Feng, E. D. Angelini, and A. F. Laine. Texton and sparse representation based texture classification of lung parenchyma in CT images. In 2016 38th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC), pages 1276–1279, Aug 2016.

[58] Y. Zhao, D. S. Huang, and W. Jia. Completed local binary count for rotation invari- ant texture classification. IEEE Transactions on Image Processing, 21(10):4492–4497, Oct 2012.

No documento AO DE TEXTURAS BASEADA EM QUANTIZAC (páginas 45-55)

Documentos relacionados