• Nenhum resultado encontrado

Reprodu¸ c˜ ao de Ficheiros bag

Os dados da demonstra¸c˜ao, desde a constru¸c˜ao do mapa `a navega¸c˜ao dentro do mapa constru´ıdo foram gravados com o comando de ROS “rosbag record -a”enquanto se execu- tavam os processos, que permite a grava¸c˜ao de todos os t´opicos dos n´os de ROS em execu¸c˜ao. Assim ´e poss´ıvel visualizar novamente todo o processo executado, utilizando o c´odigo seguinte na consola:

Mapeamento:

# Execu ¸c ˜a o do ROS

r o s c o r e

# Reprodu ¸c ˜a o d o s c o n t e ´u d o s d o s t ´o p i c o s g r a v a d o s

r o s b a g p l a y <nome do f i c h e i r o mapeamento >. bag

# Reprodu ¸c ˜a o v i s u a l da o p e r a ¸c ˜a o de mapeamento r o s l a u n c h t u r t l e b o t r v i z l a u n c h e r s v i e w n a v i g a t i o n . l a u n c h Navega¸c˜ao: # Execu ¸c ˜a o do ROS r o s c o r e # F o r n e c i m e n t o do mapa g r a v a d o ao m a p s e r v e r

r o s r u n m a p s e r v e r m a p s e r v e r <nome do mapa>. yaml

# Reprodu ¸c ˜a o d o s c o n t e ´u d o s d o s t ´o p i c o s g r a v a d o s

r o s b a g p l a y <nome do f i c h e i r o navega ¸c ˜ao >. bag

# Reprodu ¸c ˜a o v i s u a l da o p e r a ¸c ˜a o de navega ¸c ˜a o

r o s l a u n c h t u r t l e b o t r v i z l a u n c h e r s v i e w n a v i g a t i o n . l a u n c h

4.5

Coment´arios Finais

Concluindo este cap´ıtulo, o m´etodo de mapeamento utilizado com o algoritmo GMapping e o hardware dispon´ıvel demonstrou ser pr´atico, r´apido e eficiente. O mapa visualizado na Figura 4.3 foi constru´ıdo em cerca de 15 minutos (dura¸c˜ao aproximada do ficheiro bag que cont´em a grava¸c˜ao do processo), com uma ´area estimada do espa¸co de 400m2.

Assim, seria expect´avel que o mapeamento da ´area total estimada dos corredores (1900m2) tivesse uma dura¸c˜ao n˜ao muito superior a uma hora, o que ´e um resultado bastante satisfat´orio quando comparado aos sistemas existentes que requerem mapeamento pr´evio do espa¸co de trabalho.

Cap´ıtulo 5

Conclus˜oes

Entre os sistemas aut´onomos de limpeza analisados, s˜ao exclu´ıdos das poss´ıveis solu¸c˜oes os sistemas que utilizem apenas aspira¸c˜ao como m´etodo de limpeza, visto que este m´etodo n˜ao ´e suficiente para efetuar a limpeza do tipo de detritos existentes no ch˜ao dos corredores da unidade industrial da Renault CACIA. ´E determinado que a melhor op¸c˜ao na aquisi¸c˜ao de um destes sistemas fosse um robˆo que combinasse as opera¸c˜oes de sweeping com scrubbing.

Dentro dos sistemas que satisfazem esta condi¸c˜ao, o que melhor satisfaz os requerimentos impostos ´e o ECOBOT Scrub75 da Gaussian Robotics, pois tem uma autonomia de trabalho em horas elevada e ´e capaz de limpar a maior ´area por hora.

Relativamente aos sensores dispon´ıveis, tendo em conta o tipo de ambiente que se encontra na nave industrial da Renault CACIA, a utiliza¸c˜ao de scanners laser num robˆo m´ovel seria perfeitamente vi´avel. Este tipo de sensor poderia ser utilizado em conjunto com cˆamaras de imagem, permitindo uma aquisi¸c˜ao de informa¸c˜ao mais completa que poderia inclusivamente ser utilizada para a an´alise da sujidade do espa¸co a limpar, para al´em de complementar as desvantagens dos sensores laser.

Concluiu-se com a simula¸c˜ao que o melhor trajeto a implementar ´e o que efetua o menor n´umero de manobras (executa trajetos com retas maiores), pois assim torna-se mais r´apido e apresenta um menor gasto de energia, logo ´e tamb´em o mais eficiente.

O ROS ´e uma solu¸c˜ao vi´avel na implementa¸c˜ao do sistema de controlo para um robˆo m´ovel, pois integra de forma relativamente simples o hardware do robˆo com o seu software, n˜ao sendo necess´aria a cria¸c˜ao de drivers para o hardware, se este for compat´ıvel com ROS.

No mesmo sentido, os algoritmos testados, nomeadamente o GMapping no processo de mapeamento, o AMCL na localiza¸c˜ao e o A* na navega¸c˜ao, s˜ao solu¸c˜oes vi´aveis para o software de controlo do robˆo, tendo sido verificados resultados positivos no planeamento de trajet´orias e desvio de obst´aculos.

O m´etodo de mapeamento utilizado com o algoritmo GMapping e o hardware dispon´ıvel demonstrou ser pr´atico, r´apido e eficiente quando comparado a alguns sistemas j´a existentes no mercado.

A navega¸c˜ao do robˆo utilizando os algoritmos AMCL e A* foi realizada com sucesso, tendo- se visualizado o desvio de obst´aculos fixos e m´oveis sem qualquer colis˜ao, como esperado.

Apesar de no estado atual a informa¸c˜ao obtida com o prot´otipo do sistema de vis˜ao implementado ser de dif´ıcil interpreta¸c˜ao computacional, continua a ser um alvo de estudo interessante e com potencial interesse do ponto de vista do aumento da eficiˆencia nas opera¸c˜oes de limpeza. Como sugest˜ao de trabalho futuro na aplica¸c˜ao de um sistema deste tipo, seria

de interesse o estudo da utiliza¸c˜ao de algoritmos de inteligˆencia artificial para a segmenta¸c˜ao das imagens.

Com os resultados observados, juntamente com a realiza¸c˜ao de um programa adequado `

a navega¸c˜ao exclusiva nos corredores da nave fabril da Renault CACIA e com o hardware indicado para a tarefa de limpeza, um sistema de limpeza com atua¸c˜ao adequada, que utilize o hardware sensorial e software testados teriam potencial viabilidade para a resolu¸c˜ao do problema estudado.

Bibliografia

[1] RA 660 Navi. URL: https://www.cleanfix.com/en/products/cleaning-machines/ robo/ra-660-navi_p831.

[2] Swingobot 1650. URL: https://www.intellibotrobotics.com/products/swingobot. php.

[3] Duobot 1850. URL: https://www.intellibotrobotics.com/products/duobot.php. [4] TASKI SWINGOBOT 2000. URL: http://www.taski.com/taski-swingobot-2000. [5] Neo - the Smartest, Purpose-Built Commercial Cleaning Robot. URL: https://www.

avidbots.com/.

[6] Nilfisk Liberty A50. URL: https://www.nilfisk.com/en/campaigns/ NilfiskLibertyA50/Pages/Liberty-A50.aspx.

[7] Adlatus CR700. URL: https://www.adlatus.eu/en/adlatus/.

[8] Cyberdyne Cleaning Robot. URL: https://www.cyberdyne.jp/english/products/ cl02.html.

[9] Fybots fy-Sweep L. URL: https://www.fybots.com/smart-robots/sweep-l. [10] Fybots fy-Sweep XL. URL: https://www.fybots.com/smart-robots/sweep-xl. [11] Gaussian Robotics Scrub75. URL: https://www.gaussianrobotics.com/scrub75. [12] SICK. 2D LiDAR LMS1xx. URL: https://www.sick.com/ag/en/

detection-and-ranging-solutions/2d-lidar-sensors/lms1xx/lms100-10000/ p/p109841.

[13] NOAA Ocean Exploration & Research. Airborne Lidar Bathymetric Technology-High- resolution multibeam lidar map showing spectacularly faulted and deformed seafloor geo- logy, in shaded relief and coloured by depth. NOAA Ocean Exploration & Research, Jul 2013. URL: https://www.flickr.com/photos/oceanexplorergov/9267768683/. [14] Liam Daisley. SONAR. URL: https://gdblogs.shu.ac.uk/b3019344/2014/11/05/

sonar/.

[15] Vassilis Varveropoulos. Robot Localization and Map Construction Using Sonar Data. The Rossum Project, 2005.

[16] Peter Pinggera, Uwe Franke, and Rudolf Mester. High-Performance Long Range Obs- tacle Detection Using Stereo Vision. In Intelligent Robots and Systems (IROS), 2015 IEEE/RSJ International Conference on, pages 1308–1313. IEEE, 2015.

[17] ROS Concepts. URL: http://wiki.ros.org/ROS/Concepts#Next. [18] TurtleBot2. URL: https://www.turtlebot.com/turtlebot2/.

[19] Giorgio Grisetti, Cyrill Stachniss, and Wolfram Burgard. GMapping. URL: https: //openslam-org.github.io/gmapping.html.

[20] Brian Gerkey. gmapping: ROS Package Summary. URL: http://wiki.ros.org/ gmapping.

[21] Stefan Kohlbrecher. hector mapping: ROS Package Summary. URL: http://wiki.ros. org/hector_mapping.

[22] Stefan Kohlbrecher, Oskar Von Stryk, Technische Universit¨at Darmstadt, Johannes Meyer, and Uwe Klingauf. A Flexible and Scalable SLAM System With Full 3D Motion Estimation. In in International Symposium on Safety, Security, and Rescue Robotics. IEEE, 2011.

[23] The Cartographer Authors. ROS API: Cartographer Node. URL: https: //google-cartographer-ros.readthedocs.io/en/latest/ros_api.html#

cartographer-node.

[24] The Cartographer Authors. cartographer: ROS Package Summary. URL: http://wiki. ros.org/cartographer#Documentation.

[25] M. Labbe and F. Michaud. Online Global Loop Closure Detection for Large-Scale Multi- Session Graph-Based SLAM. In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems, pages 2661–2666, Sept 2014.

[26] Mathieu Labbe. rtabmap ros: ROS Package Summary. URL: http://wiki.ros.org/ rtabmap_ros.

[27] Brian P. Gerkey. amcl: ROS Package Summary. URL: http://wiki.ros.org/amcl. [28] Hans Berliner. The B* Tree Search Algorithm: A Best-First Proof Procedure. In Readings

in Artificial Intelligence, pages 79–87. Elsevier, 1981.

[29] Anthony Stentz. Optimal and efficient path planning for partially-known environments. In ICRA, volume 94, pages 3310–3317, 1994.

[30] SeungYoon Choi, SeungGwan Lee, Hoang Huu Viet, and TaeChoong Chung. B-theta*: an efficient online coverage algorithm for autonomous cleaning robots. Journal of Intel- ligent & Robotic Systems, 87(2):265–290, Aug 2017. URL: https://doi.org/10.1007/ s10846-017-0485-x, doi:10.1007/s10846-017-0485-x.

[31] David Lu. global planner: ROS Package Summary. URL: http://wiki.ros.org/ global_planner.

[32] Thaddeus Abiy, Hannah Pang, and Beakal Tiliksew. A* Search. URL: https: //brilliant.org/wiki/a-star-search/.

[33] Mark W. Silliman. Learn TurtleBot and ROS: Creating a Map. URL: http://learn. turtlebot.com/2015/02/01/11/.

[34] Cara Sperbeck. Script Mapping Python: MakeROSMap.py. URL: https://drive. google.com/file/d/0B2AcDRX3bKLVdjhPU1B2UUNRaDA/view.

[35] Installing and Configuring Your ROS Environment. URL: http://wiki.ros.org/ROS/ Tutorials/InstallingandConfiguringROSEnvironment.

[36] About iClebo Kobuki, Aug 2015. URL: http://kobuki.yujinrobot.com/about2/. [37] ROS Tutorials. URL: wiki.ros.org/ROS/Tutorials.

[38] Mark W. Silliman. Learn TurtleBot and ROS: Going to a Specific Location on Your Map Using Code. URL: http://learn.turtlebot.com/2015/02/01/14/.

[39] Guido Zunino. Simultaneous localization and mapping for navigation in realistic environ- ments. Kungl Tekniska H¨ogskolan, 2002. URL: http://www.nada.kth.se/utbildning/ forsk.utb/avhandlingar/lic/020220.pdf.

Anexo A

Sistema de Vis˜ao para

Monitoriza¸c˜ao de Sujidade

No ˆambito do projeto em estudo, o estudo de m´etodos de implementa¸c˜ao de um sistema de vis˜ao capaz de detetar sujidade no ch˜ao vai de encontro aos objetivos de tornar a opera¸c˜ao de limpeza mais eficiente nesta unidade industrial. Neste cap´ıtulo ´e feito o enquadramento deste tipo de sistemas no presente projeto e apresenta os resultados mais favor´aveis dos algoritmos de vis˜ao computacional testados, comentando a sua poss´ıvel utiliza¸c˜ao num sistema aut´onomo de limpeza.

A.1

Enquadramento

Com os avan¸cos tecnol´ogicos na ´area da rob´otica, existem atualmente sistemas de limpeza industriais que utilizam robˆos m´oveis aut´onomos que efetuam a limpeza do ch˜ao em naves industriais praticamente sem a necessidade de interven¸c˜ao humana.

Neste tipo de aplica¸c˜oes, uma forma de aumentar a autonomia destes sistemas seria ade- quar o m´etodo como estes operam em fun¸c˜ao do n´ıvel de sujidade do espa¸co. Existe tamb´em, por parte das empresas, um esfor¸co constante no sentido de melhorar as condi¸c˜oes de trabalho dos seus colaboradores, e a monitoriza¸c˜ao da qualidade da limpeza no espa¸co de trabalho ´e uma das linhas de atua¸c˜ao.

Neste contexto, pode ser considerado que a existˆencia de um sistema que permita moni- torizar a sujidade no ch˜ao de unidades industriais seria uma mais valia para as entidades que possam fazer uso desta tecnologia.

Documentos relacionados