• Nenhum resultado encontrado

Para analisar o processo de localização em si, foi observada a quantidade leituras aceitas repassadas para este processo e quantas resultaram em localizações corretas ou incorretas. Cada localização correta significa que o sistema foi capaz de determinar cor- retamente o nó do mapa que representa a região em que a câmera se encontra a partir de uma leitura aceita de uma placa detectada na imagem. Uma localização incorreta caracteriza o evento do sistema relacionar uma leitura de uma placa detectada com o nó incorreto do mapa. Outro possível resultado é a não localização que ocorre quando a leitura não é suficientemente semelhante às placas registradas no mapa. Também foi observado a quantidade de imagens do dataset que geraram localizações corretas. Ao comparar este valor com o número de imagens que proporcionam leituras aceitas para a localização, podemos analisar o desempenho do processo de localização. Já quando comparamos a quantidade de imagens do dataset que geraram localizações corretas com o número total de imagens no dataset podemos ter uma noção do desempenho de início a fim do sistema como um todo.

Por questão de conveniência, o mapa topológico usado pelo sistema foi estruturado como uma lista de nós, já que a ligação entre os nós não é levada em consideração para a localização. Esta lista foi populada com nós contendo suas respectivas placas presentes nas imagens do dataset. Um nó adicional foi incluído no mapa. Nele foram introduzi- das placas existentes no ambiente que não estavam presentes nas imagens. Estas placas foram selecionadas por sua semelhança com as demais para testar possíveis localizações incorretas.

Nas Tabelas 4 e 5 são apresentados os dados obtidos com este teste. A taxa de localização em imagens aceitas demonstra a parcela das imagens que geraram leituras

Capítulo 4. Testes e Resultados 50

aceitas com as quais o sistema conseguiu realizar localizações corretas, demonstrando assim o desempenho do processo de localização. Ela é descrita pela Equação (4.10). A taxa de localização total demonstra a parcela de todas as imagens do dataset com as quais o sistema conseguiu realizar localizações corretas, demonstrando assim o desempenho do sistema como um todo. Ela é descrita pela Equação (4.11). A diferença observada entre o total de localizações e o número de leituras aceitas deve-se ao fato de algumas leituras aceitas apresentarem mais de um caractere errado. Assim, o sistema não conseguiu realizar localizações com estas leituras.

taxa de loc. i.a. = num. de imagens que geraram localizações

num. de imagens que geraram leituras aceitas (4.10) taxa de loc. total = num. de imagens que geraram localizações

num. total de imagens no dataset (4.11) Tabela 4 – Resultados da localização.

Imagens totais no dataset Imagens aceitas Leituras aceitas

66

39

56

Tabela 5 – Resultados da localização (continuação).

Localizações corretas Localizações incorretas Taxa de loc. i.a. Taxa de loc. total

51

5 Conclusões

Neste trabalho foi estudado o uso de reconhecimento ótico de caracteres para localiza- ção topológica de robôs. Esta estratégia de localização possui oportunidades de aplicação em tarefas de navegação semântica por comandos de voz ou texto, por empregar a mesma sintaxe na compreensão de comandos e na localização. Foi proposto, desenvolvido e tes- tado um sistema que é capaz de detectar as placas de identificação de salas presentes no ambiente, reconhecer seu conteúdo textual e aplicá-lo para determinar sua posição referente a uma representação topológica do ambiente. A detecção das placas é realizada por um método desenvolvido que baseia-se nos contornos das placas. Um motor de OCR open-source foi empregado para realizar o reconhecimento de caracteres. A localização foi realizada pela análise da semelhança das leituras das placas com as informações textuais contidas no mapa.

Os testes realizados confirmaram a capacidade de localização do sistema. O desempe- nho demonstrado pelo processo de detecção condiz com as expectativas, com uma baixa taxa de falsos negativos e uma taxa considerável de falsos positivos. Os casos de falso negativos ocorreram devido a distância entre a câmera e a placa ou devido às condições de iluminação. Isto não representa algo negativo para o sistema considerando que sob estas condições seria difícil realizar um bom reconhecimento de caracteres. Já os falsos positivos não representam problema pois são descartados por uma etapa posterior no sistema.

A correção de perspectiva também apresentou bons resultados, embora haja muita margem para melhoria. As condições de iluminação tiveram um impacto negativo rele- vante no desempenho deste processo. Em algumas das imagens do dataset usado para o teste, reflexos nas placas causaram uma detecção incorreta do contorno das mesmas. Esta detecção errônea implicou em parâmetros incorretos para o cálculo da homografia e em uma correção de perspectiva incorreta. O método usado para detecção dos cantos da placa também é responsável por problemas na correção de perspectiva devido a sua im- precisão observada em algumas imagens. Apesar disso, este processo apresentou robustez as condições testadas de posicionamento da câmera relativo a placa.

O processo de identificação foi o gargalo de desempenho do sistema como um todo. Tanto em tempo de processamento como em precisão. Mesmo com o uso dos dados de treinamento para a língua portuguesa, o Tesseract apresentou dificuldade em reconhecer corretamente caracteres com acentos. Como podemos garantir que na primeira linha de texto das placas não há a presença de caracteres com acentos, apenas estas leituras foram utilizadas. Observou-se que uma confiança igual ou superior a 80 implicava em no máximo um caractere reconhecido incorretamente na maioria das leituras. Assim o valor de 80 foi selecionado para o limiar da classificação entre leituras boas e ruins. Apenas 51,66%

Capítulo 5. Conclusões 52

das detecções resultaram em reconhecimentos utilizáveis e somente 37,74% de todas as leituras realizadas atingiram o valor mínimo de confiança para serem aceitas. As condições de iluminação e a distância entre câmera e placa surtiram grande impacto negativo no desempenho do reconhecimento de caracteres. A qualidade da correção de perspectiva também influenciou o desempenho do motor de OCR.

Por fim a localização apresentou bons resultados. De todas as 57 leituras aceitas para o processo de localização, 52 delas resultaram e localizações corretas. Porém, como apenas uma parcela de todas as leituras foi aceita, o sistema só foi capaz de determinar sua localização em 54,54% das imagens do dataset. Além disso, as condições heurísticas usadas implicam na possibilidade de localizações incorretas. Este método também não é viável para mapeamento do ambiente, visto que as condições heurísticas dependem de conhecimento prévio dos marcadores que podem ser encontrados pelo robô.

Em geral o sistema cumpriu com os objetivos do trabalho. Porém existe muito que pode ser melhorado. Como trabalhos futuros podem ser estudados o desenvolvimento ou aplicação de métodos mais sofisticados e robustos para detecção das placas e seus cantos. Uma opção em particular que despertou o interesse do autor deste trabalho foram as

features MSER. O uso de outros sistemas de reconhecimento de texto buscando melho-

rar o desempenho do sistema de localização também é um possível tema para trabalhos futuros. A estruturação completa do mapa do ambiente e a integração do sistema de localização com estratégias de navegação para aplicação em um robô real permitiria o teste do comportamento do sistema em uma aplicação real. Isto também representa um tema interessante para ser abordado por trabalhos futuros.

53

Referências Bibliográficas

1 BERGAMASCO, F. et al. Rune-tag: A high accuracy fiducial marker with strong occlusion resilience. In: Computer Vision and Pattern Recognition (CVPR), 2011 IEEE

Conference on. [S.l.: s.n.], 2011. p. 113–120. ISSN 1063-6919.

2 SIEGWART, R.; NOURBAKHSH, I. R.; SCARAMUZZA, D. Introduction to

Autonomous Mobile Robots. 2nd. ed. [S.l.]: The MIT Press, 2011. ISBN 0262015358,

9780262015356.

3 WALLGRN, J. O. Hierarchical Voronoi Graphs: Spatial Representation and Reasoning

for Mobile Robots. 1st. ed. [S.l.]: Springer Publishing Company, Incorporated, 2009.

ISBN 3642103022, 9783642103025.

4 Wikimedia Commons. File:HSV color solid cylinder.png. 2015. Disponível em: <https://commons.wikimedia.org/wiki/File:HSV_color_solid_cylinder.png>. 5 BONIN-FONT, F.; ORTIZ, A.; OLIVER, G. Visual navigation for mobile robots: A survey. J. Intell. Robotics Syst., Kluwer Academic Publishers, Hingham, MA, USA, v. 53, n. 3, p. 263–296, nov. 2008. ISSN 0921-0296. Disponível em: <http://dx.doi.org/10.1007/s10846-008-9235-4>.

6 DESOUZA, G. N.; KAK, A. C. Vision for mobile robot navigation: A survey. IEEE

transactions on pattern analysis and machine intelligence, IEEE, v. 24, n. 2, p. 237–267,

2002.

7 WERNER, S.; KRIEG-BRÜCKNER, B.; HERRMANN, T. Modelling navigational knowledge by route graphs. In: Spatial cognition II. [S.l.]: Springer, 2000. p. 295–316. 8 LEONARD, J. J.; DURRANT-WHYTE, H. F. Mobile robot localization by tracking geometric beacons. IEEE Transactions on robotics and Automation, IEEE, v. 7, n. 3, p. 376–382, 1991.

9 OHNO, T.; OHYA, A.; YUTA, S. Autonomous navigation for mobile robots referring pre-recorded image sequence. In: IEEE. Intelligent Robots and Systems’ 96, IROS 96,

Proceedings of the 1996 IEEE/RSJ International Conference on. [S.l.], 1996. v. 2, p.

672–679.

10 JONES, S. D.; ANDRESEN, C.; CROWLEY, J. L. Appearance based process for visual navigation. In: IEEE. Intelligent Robots and Systems, 1997. IROS’97., Proceedings

of the 1997 IEEE/RSJ International Conference on. [S.l.], 1997. v. 2, p. 551–557.

11 CHATILA, R.; LAUMOND, J.-P. Position referencing and consistent world modeling for mobile robots. In: IEEE. Robotics and Automation. Proceedings. 1985 IEEE

International Conference on. [S.l.], 1985. v. 2, p. 138–145.

12 SUGIHARA, K. Some location problems for robot navigation using a single camera.

Referências Bibliográficas 54

13 PAN, J. et al. Fuzzy-nav: a vision-based robot navigation architecture using fuzzy inference for uncertainty-reasoning. In: Procs. of the World Congress on Neural

Networks. [S.l.: s.n.], 1995. p. 602–607.

14 BORENSTEIN, J.; KOREN, Y. Real-time obstacle avoidance for fast mobile robots.

IEEE Transactions on systems, Man, and Cybernetics, IEEE, v. 19, n. 5, p. 1179–1187,

1989.

15 TURK, M. A. et al. Vits-a vision system for autonomous land vehicle navigation.

IEEE Transactions on Pattern Analysis and Machine Intelligence, IEEE, v. 10, n. 3, p.

342–361, 1988.

16 MATTHIES, L. et al. Mars microrover navigation: Performance evaluation and enhancement. Autonomous robots, Springer, v. 2, n. 4, p. 291–311, 1995.

17 DAVISON, A. J.; CID, Y. G.; KITA, N. Real-time 3d slam with wide-angle vision.

IFAC Proceedings Volumes, Elsevier, v. 37, n. 8, p. 868–873, 2004.

18 GARTSHORE, R.; AGUADO, A.; GALAMBOS, C. Incremental map building using an occupancy grid for an autonomous monocular robot. In: IEEE. Control, Automation,

Robotics and Vision, 2002. ICARCV 2002. 7th International Conference on. [S.l.], 2002.

v. 2, p. 613–618.

19 GASPAR, J.; WINTERS, N.; SANTOS-VICTOR, J. Vision-based navigation and environmental representations with an omnidirectional camera. IEEE Transactions on

robotics and automation, IEEE, v. 16, n. 6, p. 890–898, 2000.

20 KOSECKA, J. et al. Qualitative image based localization in indoors environments. In: IEEE. Computer Vision and Pattern Recognition, 2003. Proceedings. 2003 IEEE

Computer Society Conference on. [S.l.], 2003. v. 2, p. II–II.

21 SARIPALLI, S. et al. Detection and tracking of external features in an urban environment using an autonomous helicopter. In: IEEE. Proceedings of the 2005 IEEE

International Conference on Robotics and Automation. [S.l.], 2005. p. 3972–3977.

22 MAJA, J. M. et al. Real-time obstacle avoidance algorithm for visual navigation. In: IEEE. Intelligent Robots and Systems, 2000.(IROS 2000). Proceedings. 2000 IEEE/RSJ

International Conference on. [S.l.], 2000. v. 2, p. 925–930.

23 GARCIA-FIDALGO, E.; ORTIZ, A. Vision-based topological mapping and localization methods: A survey. Robotics and Autonomous Systems, Elsevier, v. 64, p. 1–20, 2015.

24 WERNER, F.; MAIRE, F.; SITTE, J. Topological slam using fast vision techniques. In: SPRINGER. FIRA RoboWorld Congress. [S.l.], 2009. p. 187–196.

25 WEISS, C. et al. Fast outdoor robot localization using integral invariants. In:

Proceedings of the 5th International Conference on Computer Vision Systems (ICVS). Bielefeld, Germany. [S.l.: s.n.], 2007.

26 SINGH, G.; KOSECKA, J. Visual loop closing using gist descriptors in manhattan world. In: ICRA Omnidirectional Vision Workshop. [S.l.: s.n.], 2010.

Referências Bibliográficas 55

27 ARROYO, R. et al. Bidirectional loop closure detection on panoramas for visual navigation. In: IEEE. Intelligent Vehicles Symposium Proceedings, 2014 IEEE. [S.l.], 2014. p. 1378–1383.

28 RAMISA, A. et al. Robust vision-based robot localization using combinations of local feature region detectors. Autonomous Robots, Springer, v. 27, n. 4, p. 373, 2009. 29 BACCA, B.; SALVI, J.; CUFÍ, X. Long-term mapping and localization using feature stability histograms. Robotics and Autonomous Systems, Elsevier, v. 61, n. 12, p. 1539–1558, 2013.

30 ROMERO, A.; CAZORLA, M. Topological slam using omnidirectional images: Merging feature detectors and graph-matching. In: SPRINGER. International

Conference on Advanced Concepts for Intelligent Vision Systems. [S.l.], 2010. p. 464–475.

31 MADDERN, W.; MILFORD, M.; WYETH, G. Towards persistent indoor appearance-based localization, mapping and navigation using cat-graph. In: IEEE.

Intelligent Robots and Systems (IROS), 2012 IEEE/RSJ International Conference on.

[S.l.], 2012. p. 4224–4230.

32 PAUL, R.; NEWMAN, P. Fab-map 3d: Topological mapping with spatial and visual appearance. In: IEEE. Robotics and Automation (ICRA), 2010 IEEE International

Conference on. [S.l.], 2010. p. 2649–2656.

33 MUR-ARTAL, R.; TARDÓS, J. D. Fast relocalisation and loop closing in keyframe- based slam. In: IEEE. Robotics and Automation (ICRA), 2014 IEEE International

Conference on. [S.l.], 2014. p. 846–853.

34 WANG, J.; YAGI, Y. Efficient topological localization using global and local feature matching. International Journal of Advanced Robotic Systems, SAGE Publications Sage UK: London, England, v. 10, n. 3, p. 153, 2013.

35 LIN, H.-Y.; LIN, Y.-H.; YAO, J.-W. Scene change detection and topological map construction using omnidirectional image sequences. In: MVA. [S.l.: s.n.], 2013. p. 57–60. 36 BEN-AFIA, A. et al. Review and classification of vision-based localisation techniques in unknown environments. IET Radar, Sonar & Navigation, IET, v. 8, n. 9, p. 1059–1072, 2014.

37 GOLDBERG, S. B.; MAIMONE, M. W.; MATTHIES, L. Stereo vision and rover navigation software for planetary exploration. In: IEEE. Aerospace Conference

Proceedings, 2002. IEEE. [S.l.], 2002. v. 5, p. 5–5.

38 SE, S.; LOWE, D.; LITTLE, J. Mobile robot localization and mapping with uncertainty using scale-invariant visual landmarks. The international Journal of robotics

Research, SAGE Publications Sage UK: London, England, v. 21, n. 8, p. 735–758, 2002.

39 LEE, D.; RYAN, T.; KIM, H. J. Autonomous landing of a vtol uav on a moving platform using image-based visual servoing. In: IEEE. Robotics and Automation (ICRA),

2012 IEEE International Conference on. [S.l.], 2012. p. 971–976.

40 SANCHEZ-LOPEZ, J. L. et al. A multi-layered component-based approach for the development of aerial robotic systems: the aerostack framework. Journal of Intelligent &

Referências Bibliográficas 56

41 KIM, A.; EUSTICE, R. M. Real-time visual slam for autonomous underwater hull inspection using visual saliency. IEEE Transactions on Robotics, IEEE, v. 29, n. 3, p. 719–733, 2013.

42 JASIOBEDZKI, P. et al. Underwater 3d mapping and pose estimation for rov operations. In: IEEE. OCEANS 2008. [S.l.], 2008. p. 1–6.

43 NAIMARK, L.; FOXLIN, E. Circular data matrix fiducial system and robust image processing for a wearable vision-inertial self-tracker. In: Proceedings of the 1st

International Symposium on Mixed and Augmented Reality. Washington, DC, USA:

IEEE Computer Society, 2002. (ISMAR ’02), p. 27–. ISBN 0-7695-1781-1. Disponível em: <http://dl.acm.org/citation.cfm?id=850976.854961>.

44 GATRELL, L. B.; HOFF, W. A.; SKLAIR, C. W. Robust image features: Concentric contrasting circles and their image extraction. In: INTERNATIONAL SOCIETY FOR OPTICS AND PHOTONICS. Cooperative Intelligent Robotics in Space II. [S.l.], 1992. v. 1612, p. 235–245.

45 CHO, Y.; LEE, J.; NEUMANN, U. A multi-ring color fiducial system and an intensity-invariant detection method for scalable fiducial-tracking augmented reality. In: CITESEER. In IWAR. [S.l.], 1998.

46 KATO, I. P. H.; BILLINGHURST, M.; POUPYREV, I. Artoolkit user manual, version 2.33. Human Interface Technology Lab, University of Washington, v. 2, 2000. 47 KATO, H.; BILLINGHURST, M. Marker tracking and hmd calibration for a video-based augmented reality conferencing system. In: IEEE. Augmented Reality,

1999.(IWAR’99) Proceedings. 2nd IEEE and ACM International Workshop on. [S.l.],

1999. p. 85–94.

48 FIALA, M. Artag, a fiducial marker system using digital techniques. In: IEEE.

Computer Vision and Pattern Recognition, 2005. CVPR 2005. IEEE Computer Society Conference on. [S.l.], 2005. v. 2, p. 590–596.

49 OLSON, E. AprilTag: A robust and flexible visual fiducial system. In: Proceedings

of the IEEE International Conference on Robotics and Automation (ICRA). [S.l.]: IEEE,

2011. p. 3400–3407.

50 TRACHTENBERT, A. Computational methods in coding theory. Dissertação (Mestrado) — University of Illinois at Urbana-Champaign, 1996.

51 WANG, J.; OLSON, E. AprilTag 2: Efficient and robust fiducial detection. In:

Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). [S.l.: s.n.], 2016.

52 SANCHEZ-LOPEZ, J. L. et al. A reliable open-source system architecture for the fast designing and prototyping of autonomous multi-uav systems: Simulation and experimentation. Journal of Intelligent & Robotic Systems, Springer, v. 84, n. 1-4, p. 779–797, 2016.

53 BOŠNAK, M.; MATKO, D.; BLAŽIČ, S. Quadrocopter hovering using position- estimation information from inertial sensors and a high-delay video system. Journal of

Referências Bibliográficas 57

54 CHAVES, S. M.; WOLCOTT, R. W.; EUSTICE, R. M. Neec research: Toward gps-denied landing of unmanned aerial vehicles on ships at sea. Naval Engineers Journal, American Society of Naval Engineers, v. 127, n. 1, p. 23–35, 2015.

55 FENG, C. et al. Vision guided autonomous robotic assembly and as-built scanning on unstructured construction sites. Automation in Construction, Elsevier, v. 59, p. 128–138, 2015.

56 HAMNER, B. et al. An autonomous mobile manipulator for assembly tasks.

Autonomous Robots, Springer, v. 28, n. 1, p. 131, 2010.

57 STEELE, J. P. et al. Development of an oil and gas refinery inspection robot. In: AMERICAN SOCIETY OF MECHANICAL ENGINEERS. ASME 2014

International Mechanical Engineering Congress and Exposition. [S.l.], 2014. p.

V04AT04A016–V04AT04A016.

58 LEE, K. S. et al. Autonomous patrol and surveillance system using unmanned aerial vehicles. In: IEEE. Environment and Electrical Engineering (EEEIC), 2015 IEEE 15th

International Conference on. [S.l.], 2015. p. 1291–1297.

59 MONAJJEMI, V. M. et al. Hri in the sky: Creating and commanding teams of uavs with a vision-mediated gestural interface. In: IEEE. Intelligent Robots and Systems

(IROS), 2013 IEEE/RSJ International Conference on. [S.l.], 2013. p. 617–623.

60 LING, K. et al. Autonomous maritime landings for low-cost vtol aerial vehicles. In: IEEE. Computer and Robot Vision (CRV), 2014 Canadian Conference on. [S.l.], 2014. p. 32–39.

61 MUÑOZ-SALINAS, R. et al. Mapping and localization from planar markers. Pattern

Recognition, Elsevier, v. 73, p. 158–171, 2018.

62 SWEATT, M. et al. Wifi based communication and localization of an autonomous mobile robot for refinery inspection. In: IEEE. Robotics and Automation (ICRA), 2015

IEEE International Conference on. [S.l.], 2015. p. 4490–4495.

63 OLSON, E. et al. Progress toward multi-robot reconnaissance and the magic 2010 competition. Journal of Field Robotics, Wiley Online Library, v. 29, n. 5, p. 762–792, 2012.

64 LATOMBE, J.-C. Robot Motion Planning. Norwell, MA, USA: Kluwer Academic Publishers, 1991. ISBN 079239206X.

65 FRANZ, M. O. et al. Learning view graphs for robot navigation. Autonomous robots, Springer, v. 5, n. 1, p. 111–125, 1998.

66 NELSON, R. C. Visual homing using an associative memory. Biological Cybernetics, Springer, v. 65, n. 4, p. 281–291, 1991.

67 MORALES, Y. et al. Building a model of the environment from a route perspective for human–robot interaction. International Journal of Social Robotics, v. 7, n. 2, p. 165–181, Apr 2015. ISSN 1875-4805. Disponível em: <https: //doi.org/10.1007/s12369-014-0265-8>.

Referências Bibliográficas 58

68 DUDEK, G. et al. Robotic exploration as graph construction. IEEE transactions on

robotics and automation, IEEE, v. 7, n. 6, p. 859–865, 1991.

69 REKLEITIS, I. M.; DUJMOVIC, V.; DUDEK, G. Efficient topological exploration. In: ICRA. [S.l.: s.n.], 1999. p. 676–681.

70 YE, Q.; DOERMANN, D. Text detection and recognition in imagery: A survey.

IEEE transactions on pattern analysis and machine intelligence, IEEE, v. 37, n. 7, p.

1480–1500, 2015.

71 KOO, H. I.; KIM, D. H. Scene text detection via connected component clustering and nontext filtering. IEEE transactions on image processing, IEEE, v. 22, n. 6, p. 2296–2305, 2013.

72 WANG, T. et al. End-to-end text recognition with convolutional neural networks. In: IEEE. Pattern Recognition (ICPR), 2012 21st International Conference on. [S.l.], 2012. p. 3304–3308.

73 YIN, X.-C. et al. Robust text detection in natural scene images. IEEE transactions

on pattern analysis and machine intelligence, IEEE, v. 36, n. 5, p. 970–983, 2014.

74 LONG, S. et al. Textsnake: A flexible representation for detecting text of arbitrary shapes. In: SPRINGER. European Conference on Computer Vision. [S.l.], 2018. p. 19–35. 75 SHI, C. et al. Scene text recognition using part-based tree-structured character detection. In: Proceedings of the IEEE Conference on Computer Vision and Pattern

Recognition. [S.l.: s.n.], 2013. p. 2961–2968.

76 WEINMAN, J. J.; LEARNED-MILLER, E.; HANSON, A. R. Scene text recognition using similarity and a lexicon with sparse belief propagation. IEEE Transactions on

pattern analysis and machine intelligence, IEEE, v. 31, n. 10, p. 1733–1746, 2009.

77 FEILD, J. Improving text recognition in images of natural scenes. 2014. 78 SMITH, R. An overview of the tesseract ocr engine. In: Proceedings of the

Ninth International Conference on Document Analysis and Recognition - Volume 02.

Washington, DC, USA: IEEE Computer Society, 2007. (ICDAR ’07), p. 629–633. ISBN 0-7695-2822-8. Disponível em: <http://dl.acm.org/citation.cfm?id=1304596.1304846>. 79 TOMONO, M.; YUTA, S. Mobile robot navigation in indoor environments using object and character recognition. In: IEEE. Robotics and Automation, 2000. Proceedings.

ICRA’00. IEEE International Conference on. [S.l.], 2000. v. 1, p. 313–320.

80 MATA, M. et al. A visual landmark recognition system for topological navigation of mobile robots. In: ICRA. [S.l.: s.n.], 2001. p. 1124–1129.

81 MATA, M. et al. Learning visual landmarks for mobile robot navigation. IFAC

Proceedings Volumes, Citeseer, v. 35, n. 1, p. 445–450, 2002.

82 MATA, M. et al. Using learned visual landmarks for intelligent topological navigation of mobile robots. In: IEEE; 1999. IEEE International Conference on Robotics and

Referências Bibliográficas 59

83 CASE, C. et al. Autonomous sign reading for semantic mapping. In: IEEE. Robotics

and Automation (ICRA), 2011 IEEE International Conference on. [S.l.], 2011. p.

3297–3303.

84 SCHULZ, R. et al. Robot navigation using human cues: A robot navigation system for symbolic goal-directed exploration. In: IEEE. Proceedings of the 2015 IEEE

International Conference on Robotics and Automation (ICRA 2015). [S.l.], 2015. p.

1100–1105.

85 BRADSKI, G. The OpenCV Library. Dr. Dobb’s Journal of Software Tools, 2000. 86 VISVALINGAM, M.; WHYATT, J. D. Line generalisation by repeated elimination of points. The cartographic journal, Taylor & Francis, v. 30, n. 1, p. 46–51, 1993.

87 CORKE, P. Robotics, Vision and Control: Fundamental Algorithms In MATLAB R

Second, Completely Revised. [S.l.]: Springer, 2017. v. 118.

88 LEVENSHTEIN, V. I. Binary codes capable of correcting deletions, insertions, and reversals. In: Soviet physics doklady. [S.l.: s.n.], 1966. v. 10, n. 8, p. 707–710.

89 BASLER. Product Documentation: acA2040-120uc. 2018. Disponível em: <https://docs.baslerweb.com/index.htm#t=en\%2Faca2040-120uc.htm>.

90 TAMRON. CCTV Lenses/Model : M118FM06. 2018. Disponível em: <https: //www.tamron.biz/en/data/ipcctv/cctv_mg/m118fm06.html>.

Documentos relacionados