• Nenhum resultado encontrado

6 CONCLUSÃO

6.2 TRABALHOS FUTUROS

Como trabalhos futuros desta Tese, destacamos a importância de eliminar (ou, ao menos, reduzir) a perda na acurácia quando a busca é aplicada no modo não-exaustivo. Para que isso seja feito, os seguintes caminhos podem ser seguidos:

 Experimentos demonstraram perda na acurácia de classificação após a conversão de

descritores do formato de ponto flutuante para binário. Assim, um possível trabalho futuro envolve a melhoria da conversão de descritores proposta. Para isso, poderia ser estudado, por exemplo, quais sub-regiões dentro da vizinhança do keypoint são mais significativas, e pesos diferentes poderiam ser atribuídos para diferentes sub-regiões;

 Uma estratégia diferente seria construir descritores binários, ao invés de extrair

descritores em ponto flutuante e realizar a conversão para binário. Apesar de o descritor binário AKAZE ter sido utilizado, ele se mostrou inapropriado para a busca não-exaustiva, devido à sua grande quantidade de bits e ao fato de não ter sido encontrada uma relação significativa de prioridade dentre seus bits. Assim, uma abordagem para resolver esse problema pode envolver a proposta de descritores binários hierárquicos, em que apenas uma parcela dos bits do descritor seja suficiente para descartar a possibilidade de matching entre dois descritores, mesmo que essa mesma parcela não seja suficiente para garantir o matching. Com isso, o número de bits (nbits) dos descritores inseridos nos filtros de Bloom diminuiria, e um valor maior para distância máxima (dmax) de vizinhança poderia ser utilizada na geração de vizinhos.

Além dos pontos já mencionados, listamos outras possibilidades de trabalhos futuros, como:

 A eliminação da etapa de matching do reconhecimento de objetos. Isso poderia ser

feito inserindo nos filtros de Bloom apenas vizinhos que satisfaçam o critério de matchingutilizado, como o do NNDR, utilizado nesta Tese. Assim, após a verificação de presença de um descritor da cena nos filtros de Bloom utilizados, o matching desse descritor com a base de objetos poderia ser desprezado com uma probabilidade de falso positivo a ser ajustada na definição do filtro. No entanto, para que isso seja feito, existem as dificuldades (i) de o valor da variável max_dist ter de ser devidamente ajustado, e (ii) de um maior tempo de processamento ser necessário durante a construção dos filtros, uma vez que os critérios de matching teriam de ser testados para cada descritor da vizinhança do descritor do objeto, antes de sua inserção no filtro;

 A aplicação dos modelos de busca propostos no rastreamento de objetos, já que,

do mesmo na sequência de imagens analisada e devido à importância do tempo de processamento para esse tipo de aplicação;

 A aplicação dos modelos de busca propostos na recuperação de imagens baseada

em conteúdo, em que a quantidade de imagens utilizada na busca tende a ser muito grande, sendo a BGCO N.E. uma possibilidade de redução de tempo de busca;

 A análise dos motivos da variação na acurácia de classificação dos algoritmos de

reconhecimento estudados (SURF, SIFT e AKAZE) em diferentes objetos;

 O estudo de como o formato dos objetos pode ser utilizado para melhorar a acurácia

da detecção, principalmente para objetos com pouca variação de textura;

 O estudo de como a textura de objetos pode ser utilizada para propor novos algoritmos

de detecção de saliência;

 Investigar diferentes taxas de redução da imagem de entrada para calcular mapas de

saliência; analisar como diferentes taxas de redução impactam na acurácia e tempo da detecção de saliência, e como isso influencia a busca por objetos.

Referências

ACHANTA, R.; HEMAMI, S. S.; ESTRADA, F. J.; SüSSTRUNK, S. Frequency-tuned salient region detection. In: IEEE CONF. ON COMPUTER VISION AND PATTERN

RECOGNITION. Anais. . . IEEE, 2009. p.1597–1604.

ACHANTA, R.; SHAJI, A.; SMITH, K.; LUCCHI, A.; FUA, P.; SUSSTRUNK, S. SLIC Superpixels Compared to State-of-the-Art Superpixel Methods. IEEE Trans. Pattern Anal. Mach. Intell. PAMI, [S.l.], v.34, n.11, p.2274–2282, 2012.

ACHANTA, R.; SüSSTRUNK, S. Saliency detection using maximum symmetric surround. In: INTERNATIONAL CONFERENCE ON IMAGE PROCESSING. Anais. . . IEEE, 2010. p.2653–2656.

ALCANTARILLA, P. F.; BARTOLI, A.; DAVISON, A. J. KAZE Features. In: EUR. CONF. ON COMPUTER VISION (ECCV). Anais. . . [S.l.: s.n.], 2012.

ALCANTARILLA, P. F.; NUEVO, J.; BARTOLI, A. Fast Explicit Diffusion for Accelerated Features in Nonlinear Scale Spaces. In: BRITISH MACHINE VISION CONFERENCE, BMVC 2013, BRISTOL, UK, SEPTEMBER 9-13, 2013. Anais. . . [S.l.: s.n.], 2013.

ALMAADEED, S.; BOURIDANE, A.; CROOKES, D.; NIBOUCHE, O. Partial shoeprint retrieval using multiple point-of-interest detectors and SIFT descriptors. Integrated Computer-Aided Engineering, [S.l.], v.22, p.41–58, 2015.

AND, A. B.; CHENG, M.-M.; JIANG, H.; LI, J. Salient Object Detection: a survey. arXiv, [S.l.], v.1411.5878, 2014.

ARYA, S.; MOUNT, D. M.; NETANYAHU, N. S.; SILVERMAN, R.; WU, A. Y. An optimal algorithm for approximate nearest neighbor searching fixed dimensions. Journal of the ACM (JACM), [S.l.], v.45, n.6, p.891–923, 1998.

BABER, J.; DAILEY, M. N.; SATOH, S.; AFZULPURKAR, N.; BAKHTYAR, M. BIG-OH: {BInarization} of gradient orientation histograms. Image and Vision Computing, [S.l.], v.32,

n.11, p.940 – 953, 2014.

BAROFFIO, L.; CESANA, M.; REDONDI, A.; TAGLIASACCHI, M.; TUBARO, S. Coding Visual Features Extracted From Video Sequences. IEEE Transaction on Image Processing, [S.l.], v.23, n.5, p.2262–2276, 2014.

BAY, H.; ESS, A.; TUYTELAARS, T.; VAN GOOL, L. Speeded-Up Robust Features (SURF). Comput. Vis. Image Underst., New York, NY, USA, v.110, n.3, p.346–359, June 2008. BI, F.; BIAN, M.; LIU, F.; GAO, L. A Local Descriptor Based Model with Visual Attention Guidance for Generic Object Detection. In: INT. CONGRESS ON IMAGE AND SIGNAL PROCESSING. Anais. . . IEEE, 2010. p.1599–1604.

BLOOM, B. H. Space/Time Trade-offs in Hash Coding with Allowable Errors. Commun. ACM, New York, NY, USA, v.13, n.7, p.422–426, July 1970.

BONAIUTO, J.; ITTI, L. Combining attention and recognition for rapid scene analysis. IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops, Los Alamitos, CA, USA, v.0, p.90, 2005.

BORGEFORS, G. Distance transforms in arbitrary dimensions. Computer Vision, Graphics, and Image Processing, [S.l.], v.27, n.3, p.321–345, 1984.

BORJI, A. Boosting bottom-up and top-down visual features for saliency estimation. In: IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION. Anais. . . [S.l.: s.n.], 2012. p.438 – 445.

BORJI, A.; CHENG, M.-M.; JIANG, H.; LI, J. Salient Object Detection: a benchmark. IEEE Transactions on Image Processing, [S.l.], v.24, n.12, p.5706–5722, 2015.

BROWN, M.; LOWE, D. Invariant Features from Interest Point Groups. In: IN BRITISH MACHINE VISION CONFERENCE. Anais. . . [S.l.: s.n.], 2002. p.656–665.

CALONDER, M.; LEPETIT, V.; STRECHA, C.; FUA, P. BRIEF: binary robust independent elementary features. In: EUROPEAN CONFERENCE ON COMPUTER VISION: PART IV, 11. Proceedings. . . Springer-Verlag, 2010. p.778–792. (ECCV’10).

CANNY, J. A computational approach to edge detection. IEEE transactions on pattern analysis and machine intelligence, [S.l.], v.8, n.6, p.679–698, June 1986.

CHENG, M.-M.; MITRA, N. J.; HUANG, X.; TORR, P. H. S.; HU, S.-M. Global Contrast Based Salient Region Detection. IEEE Transactions on Pattern Analysis and Machine Intelligence, [S.l.], v.37, n.3, p.569–582, 2015.

CHENG, M.; WARRELL, J.; LIN, W.; ZHENG, S.; VINEET, V.; CROOK, N. Efficient Salient Region Detection with Soft Image Abstraction. In: IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION, ICCV 2013, SYDNEY, AUSTRALIA, DECEMBER 1-8, 2013. Anais. . . [S.l.: s.n.], 2013. p.1529–1536.

CORMEN, T. H.; STEIN, C.; RIVEST, R. L.; LEISERSON, C. E. Introduction to Algorithms. 2nd.ed. [S.l.]: McGraw-Hill Higher Education, 2001.

CSURKA, G.; DANCE, C. R.; FAN, L.; WILLAMOWSKI, J.; BRAY, C. Visual categorization with bags of keypoints. In: IN WORKSHOP ON STATISTICAL LEARNING IN COMPUTER VISION, ECCV. Anais. . . [S.l.: s.n.], 2004. p.1–22.

DEMSAR, J. Statistical Comparisons of Classifiers over Multiple Data Sets. J. Mach. Learn. Res., [S.l.], v.7, p.1–30, Dec. 2006.

EVERINGHAM, M.; ESLAMI, S.; VAN GOOL, L.; WILLIAMS, C.; WINN, J.; ZISSERMAN, A. The Pascal Visual Object Classes Challenge: a retrospective. International Journal of Computer Vision, [S.l.], v.111, n.1, p.98–136, 2015.

FELZENSZWALB, P.; HUTTENLOCHER, D. Efficient Graph-Based Image Segmentation. International Journal of Computer Vision, [S.l.], v.59, n.2, p.167–181, 2004.

FELZENSZWALB, P.; MCALLESTER, D.; RAMANAN, D. A Discriminatively Trained, Multiscale, Deformable Part Model. In: IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR). Anais. . . [S.l.: s.n.], 2008.

FENG, D.; YANG, J.; LIU, C. An efficient indexing method for content-based image retrieval. Neurocomputing, [S.l.], v.106, n.0, p.103 – 114, 2013.

FILIPE, S.; ITTI, L.; ALEXANDRE, L. A. BIK-BUS: biologically motivated 3d keypoint based on bottom-up saliency. IEEE Transactions on Image Processing, [S.l.], v.24, n.1, p.163–175, Jan 2015.

FREUND, Y.; SCHAPIRE, R. E. A Decision-theoretic Generalization of On-line Learning and an Application to Boosting. In: SECOND EUROPEAN CONFERENCE ON

COMPUTATIONAL LEARNING THEORY, London, UK, UK. Proceedings. . . Springer-Verlag, 1995. p.23–37. (EuroCOLT ’95).

FRINTROP, S.; ROME, E.; CHRISTENSEN, H. I. Computational Visual Attention Systems and Their Cognitive Foundations: a survey. ACM Trans. Appl. Percept., New York, NY, USA, v.7, n.1, p.6:1–6:39, Jan. 2010.

GARCíA-DíAZ, A.; FERNáNDEZ-VIDAL, X. R.; PARDO, X. M.; DOSIL, R. Decorrelation and Distinctiveness Provide with Human-Like Saliency. In: ACIVS. Anais. . . Springer, 2009. p.343–354. (Lecture Notes in Computer Science, v.5807).

GREENSPAN, H.; BELONGIE, S.; GOODMAN, R.; PERONA, P.; RAKSHIT, S.;

ANDERSON, C. H. Overcomplete Steerable Pyramid Filters and Rotation Invariance. In: IN PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION. Anais. . . [S.l.: s.n.], 1994. p.222–228.

HAREL, J.; KOCH, C.; PERONA, P. Graph-Based Visual Saliency. In: ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS (NIPS). Anais. . . [S.l.: s.n.], 2006. p.545–552.

HARTLEY, R. I.; ZISSERMAN, A. Multiple View Geometry in Computer Vision. 2.ed. [S.l.]: "Cambridge University Press, ISBN: 0521540518", 2004.

HOU, J.; CHEN, Z.; QIN, X.; ZHANG, D. Automatic image search based on improved feature descriptors and decision tree. Integrated Computer-Aided Engineering, [S.l.], v.18,

p.167–180, 2011.

HOU, X.; HAREL, J.; KOCH, C. Image Signature: highlighting sparse salient regions. IEEE Transactions on Pattern Analysis and Machine Intelligence, Los Alamitos, CA, USA, v.34, n.1, p.194–201, 2012.

HUNT, R. Measuring colour. [S.l.]: Ellis Horwood Limited, 1991. (Ellis Horwood Series in Applied Science and Industrial Technology).

ITTI, L.; KOCH, C. A saliency-based search mechanism for overt and covert shifts of visual attention. Vision research, [S.l.], v.40, n.10-12, p.1489–506, Jan. 2000.

ITTI, L.; KOCH, C.; NIEBUR, E. A Model of Saliency-Based Visual Attention for Rapid Scene Analysis. IEEE Trans. Pattern Anal. Mach. Intell., Washington, DC, USA, v.20, n.11, p.1254–1259, Nov. 1998.

ITTI, L.; REES, G.; TSOTSOS, J. K. (Ed.). Neurobiology of attention. Burlington: Elsevier Academic Press, 2005.

JANG, M.; PARK, D.-C. Modified SURF-based Object Tracking System . International Journal of Computer Science and Electronics Engineering, [S.l.], v.3, n.4, p.319–323, 2015. JIANG, B.; ZHANG, L.; LU, H.; YANG, C.; YANG, M. H. Saliency detection via absorbing Markov Chain. In: IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION. Proceedings. . . [S.l.: s.n.], 2013. p.1665–1672.

KIM, D.; RHO, S.; JUN, S.; HWANG, E. Classification and indexing scheme of large- scale image repository for spatio-temporal landmark recognition. Integrated Computer-Aided Engineering, [S.l.], n.September 2015, 2015.

LECUN, Y.; BOTTOU, L.; BENGIO, Y.; HAFFNER, P. Gradient-based learning applied to document recognition. In: IEEE. Proceedings. . . [S.l.: s.n.], 1998. p.2278–2324.

LEE, S.; KIM, K.; KIM, J.-Y.; KIM, M.; YOO, H.-J. Familiarity Based Unified Visual Attention Model for Fast and Robust Object Recognition. Pattern Recogn., New York, NY, USA, v.43, n.3, p.1116–1128, Mar. 2010.

LEUTENEGGER, S.; CHLI, M.; SIEGWART, R. Y. BRISK: binary robust invariant scalable keypoints. In: INTERNATIONAL CONFERENCE ON COMPUTER VISION, 2011., Washington, DC, USA. Proceedings. . . IEEE Computer Society, 2011. p.2548–2555. (ICCV ’11).

LI, Y.; HOU, X.; KOCH, C.; REHG, J. M.; YUILLE, A. L. The Secrets of Salient Object Segmentation. CoRR, [S.l.], v.abs/1406.2807, 2014.

LI, Z.; ITTI, L. Saliency and Gist Features for Target Detection in Satellite Images. IEEE Transactions on Image Processing, [S.l.], v.20, n.7, p.2017–2029, 2011.

LINDEBERG, T. Detecting salient blob-like image structures and their scales with a scale-space primal sketch: a method for focus-of-attention. International Journal of Computer Vision, [S.l.], v.11, n.3, p.283–318, 1993.

LINDEBERG, T. Feature Detection with Automatic Scale Selection. International Journal of Computer Vision, [S.l.], v.30, n.2, p.79–116, 1998.

LIU, N.; HAN, J.; ZHANG, D.; WEN, S.; LIU, T. Predicting Eye Fixations using Convolutional Neural Networks. In: IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION. Anais. . . [S.l.: s.n.], 2015. p.362–370.

LIU, T.; 0001, J. S.; ZHENG, N.; TANG, X.; SHUM, H.-Y. Learning to Detect A Salient Object. In: CVPR. Anais. . . IEEE Computer Society, 2007.

LIU, T.; YUAN, Z.; SUN, J.; WANG, J.; ZHENG, N.; TANG, X.; SHUM, H.-Y. Learning to Detect a Salient Object. IEEE Trans. Pattern Anal. Mach. Intell., Washington, DC, USA, v.33, n.2, p.353–367, Feb. 2011.

LIU, Y.; JIAN, Q.; ZHU, X.; CAO, J.; LI, H. SALIENCY DETECTION USING TWO-STAGE SCORING Yaqi Liu Qiang Cai Xiaobin Zhu Jian Cao School of Computer and Information Engineering Beijing Technology and Business University , Beijing , China. In: INT.

LOWE, D. G. Distinctive Image Features from Scale-Invariant Keypoints. Int. J. Comput. Vision, Hingham, MA, USA, v.60, n.2, p.91–110, Nov. 2004.

MESQUITA, R. G.; MELLO, C. A. B. Segmentation of Natural Scenes Based on Visual Attention and Gestalt Grouping Laws. In: IEEE INTERNATIONAL CONFERENCE ON SYSTEMS, MAN, AND CYBERNETICS, MANCHESTER, SMC 2013, UNITED KINGDOM, OCTOBER 13-16, 2013. Anais. . . [S.l.: s.n.], 2013. p.4237–4242.

MESQUITA, R. G.; MELLO, C. A. B. Object recognition using saliency guided searching. Integrated Computer-Aided Engineering, Amsterdam, The Netherlands, v.23, n.4, p.385–400, 2016.

MESQUITA, R. G.; MELLO, C. A. B.; ALMEIDA, L. H. E. V. A new thresholding algorithm for document images based on the perception of objects by distance. Integrated

Computer-Aided Engineering, [S.l.], v.21, n.2, p.133–146, 2014.

MESQUITA, R. G.; MELLO, C. A. B.; CASTILHO, P. L. Visual Search Guided By An Efficient Top-down Attention Approach. In: INTERNATIONAL CONFERENCE ON IMAGE

PROCESSING. Anais. . . IEEE, 2016. p.679–683.

MESQUITA, R. G.; SILVA, R. M. A.; MELLO, C. A. B.; MIRANDA, P. B. C. Parameter tuning for document image binarization using a racing algorithm. Expert Systems with Applications, [S.l.], v.42, n.5, p.2593–2603, 2015.

MESQUITA, R.; MELLO, C. Finding Text in Natural Scenes by Visual Attention. In: IEEE INTERNATIONAL CONFERENCE ON SYSTEMS, MAN, AND CYBERNETICS, 2013. Anais. . . Ieee, 2013. p.4243–4247.

MIKOLAJCZYK, K. Detection of local features invariant to affines transformations. 2002. Tese (Doutorado em Ciência da Computação) — INPG, Grenoble.

MIKOLAJCZYK, K.; SCHMID, C. Scale &Amp; Affine Invariant Interest Point Detectors. Int. J. Comput. Vision, Hingham, MA, USA, v.60, n.1, p.63–86, Oct. 2004.

MIKOLAJCZYK, K.; SCHMID, C. A Performance Evaluation of Local Descriptors. IEEE Trans. Pattern Anal. Mach. Intell., Washington, DC, USA, v.27, n.10, p.1615–1630, Oct. 2005.

MIKOLAJCZYK, K.; TUYTELAARS, T.; SCHMID, C.; ZISSERMAN, A.; MATAS, J.; SCHAFFALITZKY, F.; KADIR, T.; GOOL, L. V. A Comparison of Affine Region Detectors. Int. J. Comput. Vision, Hingham, MA, USA, v.65, n.1-2, p.43–72, Nov. 2005.

OLIVA, A.; TORRALBA, A. Modeling the Shape of the Scene: a holistic representation of the spatial envelope. Int. J. Comput. Vision, Hingham, MA, USA, v.42, n.3, p.145–175, May 2001. PERAZZI, F.; KRAHENBUHL, P.; PRITCH, Y.; HORNUNG, A. Saliency filters: contrast based filtering for salient region detection. In: IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION. Anais. . . [S.l.: s.n.], 2012. p.733–740.

ROSENHOLTZ, R. A simple saliency model predicts a number of motion popout phenomena. Vision Research, [S.l.], v.39, p.3157–3163, 1999.

ROTHGANGER, F.; LAZEBNIK, S.; SCHMID, C.; PONCE, J. 3D Object modeling and recognition using local affine-invariant image descriptors and multi-view spatial constraints. Int. Journal of Computer Vision, [S.l.], v.66, p.2006, 2006.

RUBLEE, E.; RABAUD, V.; KONOLIGE, K.; BRADSKI, G. ORB: an efficient alternative to sift or surf. In: COMPUTER VISION (ICCV), 2011 IEEE INTERNATIONAL CONFERENCE ON. Anais. . . IEEE, 2011. p.2564–2571.

RUTISHAUSER, U.; WALTHER, D.; KOCH, C.; PERONA, P. Is Bottom-up Attention Useful for Object Recognition? In: IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, 2004., Washington, DC, USA. Proceedings. . . IEEE Computer Society, 2004. p.37–44. (CVPR’04).

SZELISKI, R. Computer Vision: algorithms and applications. 1st.ed. New York, NY, USA: Springer-Verlag New York, Inc., 2010.

TARKOMA, S.; ROTHENBERG, C. E.; LAGERSPETZ, E. Theory and Practice of Bloom Filters for Distributed Systems. IEEE Communications Surveys and Tutorials, [S.l.], v.14, n.1, p.131–155, 2012.

THAKOOR, K.; MARAT, S.; NASIATKA, P.; MCINTOSH, B.; SAHIN, F.; TANGUAY, A. R.; WEILAND, J. D.; ITTI, L. Attention-Biased Speeded-Up Robust Features (AB-SURF): a neurally-inspired object recognition algorithm for a wearable aid for the visually impaired. In: IEEE CONFERENCE ON MULTIMEDIA AND EXPO (ICME), WORKSHOP ON

MULTIMODAL AND ALTERNATIVE PERCEPTION FOR THE VISUALLY IMPAIRED PEOPLE (MAP4VIP). Proceedings. . . [S.l.: s.n.], 2013. Best Student Paper Award.

TILKE, J.; EHINGER, K.; DURAND, F.; TORRALBA, A. Learning to predict where humans look. In: IEEE INT. CONFERENCE ON COMPUTER VISION. Anais. . . [S.l.: s.n.], 2009. n.Iccv, p.2106–2113.

TORRALBA, A. Modeling Global Scene Factors in Attention. Journal of Optical Society of America, [S.l.], v.20, p.1407–1418, 2003.

TREISMAN, A. M.; GELADE, G. A Feature-Integration Theory of Attention. Cognitive Psychology, [S.l.], v.12, p.97–136, 1980.

TSOTSOS, J. K. A Computational Perspective on Visual Attention. [S.l.]: MIT Press, 2011. I-XVI, 1-308p.

VAPNIK, V. N. The nature of statistical learning theory. New York: Springer, 2000. (Statistics for engineering and information science).

VIOLA, P.; JONES, M. Rapid object detection using a boosted cascade of simple features. In: COMPUTER VISION AND PATTERN RECOGNITION, 2001. CVPR 2001. PROCEEDINGS OF THE 2001 IEEE COMPUTER SOCIETY CONFERENCE ON. Anais. . . [S.l.: s.n.], 2001. v.1, p.I–511–I–518 vol.1.

VIOLA, P.; JONES, M. J. Robust Real-Time Face Detection. Int. J. Comput. Vision, Hingham, MA, USA, v.57, n.2, p.137–154, May 2004.

XUE, K.; WANG, X.; MA, G.; WANG, H.; NAM, D. A video saliency detection method based on spatial and motion information. In: INT. CONFERENCE ON IMAGE PROCESSING. Anais. . . [S.l.: s.n.], 2015. p.412 – 416.

YANG, X.; CHENG, K.-T. LDB: an ultra-fast feature for scalable augmented reality on mobile devices. In: ISMAR. Anais. . . IEEE Computer Society, 2012. p.49–57.

YU, Y.; MANN, G. K. I.; GOSINE, R. G. An Object-Based Visual Attention Model for Robotic Applications. IEEE Trans. on Systems, Man, and Cybernetics, Part B, [S.l.], v.40, n.5, p.1398–1412, 2010.

Documentos relacionados