• Nenhum resultado encontrado

As imagens obtidas com o Dispositivo DRS construído foram submetidas a classificação em um notebook utilizando o método desenvolvido por Shi, Zou e Zhang (2016).

As imagens foram obtidas utilizando três smartphones diferentes. O primeiro grupo obtido com um Motorola G2 não apresentou bons resultados, por este motivo foi descartado

Capítulo 4. Protótipo de um Dispositivo de Detecção e Reconhecimento de Semáforos 47

Figura 19 – Imagens obtidas utilizando o suporte para DRS prototipado com diferentes smartpho- nes. De cima para baixo, em sentido horário: imagem obtida com um Motorola G 2a Geração, com um iPhone 6, e com um Galaxy S8+.

e não foi contabilizado nos resultados. O segundo grupo, com imagens obtidas pelo iPhone 6, contém 682 imagens, sendo 209 sem semáforos e 473 com semáforos. O terceiro grupo é formado por 247 imagens obtidas com o Galaxy S8+, sendo 165 com semáforos e 82 sem semáforos.

Um total de 929 imagens de trânsito foi analisado: 638 imagens contendo semáforos verdes ou vermelhos, e 291 imagens que nao contém semáforos, o grupo negativo.

Constatou-se também que apenas a categorização das imagens do dataset não é suficiente para a avaliação dos resultados obtidos. Suponha que o label da imagem 01 diga que há um semáforo vermelho na imagem e o DRS, diga também que há um semáforo vermelho na imagem. Suponha também que o semáforo vermelho encontrado pelo DRS é na verdade uma placa de Pare. Se a comparação for feita apenas entre os labels encontrados o resultado será 1 verdadeiro positivo para a imagem 01, quando na verdade deveria ser 1 falso positivo. Sendo assim, ao se trabalhar com reconhecimento de objetos isolados na imagem como um semáforo é necessário que o DRS destaque na imagem obtida a região identificada como semáforo, e ao computar os resultados o pesquisador deve verificar cada imagem uma a uma.

Considerando que na maioria das vezes há dois semáforos iguais para a mesma via foi contabilizado apenas um resultado positivo para o tipo de semáforo encontrado quando um ou ambos os semáforos são reconhecidos na imagem. Sendo assim para cada imagem nós temos 01 erro ou 01 acerto. Isso reflete o comportamento no dia a dia quando é necessário observar apenas um semáforo para fazer uma escolha.

Capítulo 4. Protótipo de um Dispositivo de Detecção e Reconhecimento de Semáforos 48

Na Figura 20 é possível observar os resultados detalhados de obtidos por cada grupo de imagens. Os dois grupos alcançaram altas taxas de precisão, porém o grupo de imagens obtidas com o iPhone 6 apresentou uma taxa de cobertura de apenas 60%. Este resultado pode ser explicado pelo fato de que os exemplares de semáforos utilizados no treinamento são muito diferentes de alguns dos exemplares encontrados no grupo de teste, característica demonstrada na Figura 21. Quando os exemplares de treinamento não representam de forma completa o mundo real alguns semáforos acabam por não ser reconhecidos.

Figura 20 – Taxas de precisão e cobertura (recall) por smartphone utilizado para capturar as imagens.

As condições de iluminação no dataset de treinamento também são muito diferentes das condições em que o dataset de teste foi criado em consequência da região geográfica, interferência meteorológica e possivelmente diferença no dispositivo utilizado para obter as imagens dos datasets. Condições como essas podem influenciar o resultado.

É importante considerar que a distância entre o DRS e o semáforo é crucial para o reconhecimento. Quanto maior a distância a partir da qual o DRS consegue classificar correta- mente o semáforo maior a sua robustez. Para esta pesquisa, foi utilizada uma distância relativa considerando para isso o tamanho do semáforo na imagem; foram somente contabilizados nos resultados apresentados os semáforos com ao menos 20 pixels na sua diagonal.

Figura 21 – Da esquerda para a direita: exemplos de semáforo verde e vermelho utilizados no treinamento, exemplos de semáforo verde e vermelho obtidos pelo DRS prototipado e utilizados nos testes.

Capítulo 4. Protótipo de um Dispositivo de Detecção e Reconhecimento de Semáforos 49

A baixa taxa de cobertura do grupo de teste obtido com o iPhone influenciou negativa- mente os resultados finais dos testes com o DRS, como observado na Figura 22. Em comparação com os resultados originais de Shi, Zou e Zhang (2016) e com a nossa reprodução utilizando os seus dados, os resultados validam o DRS e justificam o seu uso em pesquisas futuras.

Figura 22 – Taxas de precisão e cobertura (recall): da nossa reprodução do trabalho de Shi, Zou e Zhang (2016), do trabalho original de Shi, Zou e Zhang (2016), e dos testes utilizando as imagens obtidas pelo DRS prototipado, respectivamente.

50

5

Conclusão

O principal objetivo desta dissertação foi avaliar se a inclusão de Instrução Especialista (IE) poderia diminuir a quantidade de dados necessários para treinar um algoritmo de aprendizado de máquina no problema de reconhecimento de semáforos. Para atingir esse objetivo foi realizado o treinamento de uma PCANet com e sem IE. A IE utilizada foi a frequência de ocorrência de semáforo por pixel de uma sequencia de imagens. A escolha da IE foi feita com base no conhecimento implícito ao condutor de esperar que o semáforo se encontre nas regiões centrais e superiores da cena que ele observa do interior do veículo. Foram construídos mapas de frequência para validar essa ideia.

Os resultados obtidos após o treinamento confirmam que o uso de IE ajuda a diminuir quantidade de dados para o treinamento, pois tanto no dataset de (SHI; ZOU; ZHANG, 2016) como no de (CHEN; HUANG, 2016), os resultados dos testes após treinamento com IE foram superiores aos do treinamento tradicional, ou seja, sem IE. Mesmo quando a quantidade de exem- plares de treinamento era igual a 1000 exemplares, a menor quantidade de dados utilizada nos experimentos, o treinamento com IE conseguiu ao menos 75% de acurácia após o treinamento. Para avaliar o uso desse treinamento num processo de reconhecimento de semáforos completo foi realizado um experimento em que um algoritmo de detecção de ROIs foi aplicado e em seguida os ROIs foram submetidos à classificação pela PCAnet utilizando IE e sem utilizar IE. O experimento utilizando IE se mostrou superior obtendo 83% de precisão e 73% de cobertura em média, contra 75,3% de precisão e 51,1% de cobertura.

Um protótipo de DRS também é apresentado no Capítulo 4, o objetivo é mostrar uma forma de obter imagens para teste neste tipo de problema bem como um layout que pode ser utilizado na criação de dispositivos finais para auxílio do motorista. As imagens obtidas com o DRS foram submetidas ao algoritmo de detecção e reconhecimento de semáforos proposto por (SHI; ZOU; ZHANG, 2016). A precisão de 100% e cobertura de 65,17% validam o uso deste layoutde DRS em pesquisas futuras.

Capítulo 5. Conclusão 51

Baseado nos resultados obtidos foi possível concluir que o uso de IE na área de reconhe- cimento de semáforos reduziu a quantidade de dados necessárias no treinamento de algoritmos de aprendizado de máquina. Os resultados promissores também validam a investigação da mesma técnica em outras áreas de conhecimento e em conjunto com outros algoritmos de aprendizado de máquina.

Importante ressaltar que os resultados de todos os experimentos ainda podem ser melho- rados alterando-se os parâmetros de elaboração da base de IE apresentados no Capítulo 3. Um desses parâmetros é a quantidade de imagens utilizadas para gerar o mapa de frequências, que pode ser expandida para ser ainda mais representativo, porém é necessário um estudo para anali- sar se o custo de analisar manualmente mais imagens traz uma melhoria palpável aos resultados do método. Outros parâmetros que também podem ser alterados são: a máscara utilizada para suavização do mapa de frequências e o incremento inc adicionado a todo valor de frequência f at para a combinação com a imagem de entrada do algoritmo. Testes alterando os parâmetros citados serão realizados em trabalhos futuros

Outros trabalhos futuros derivados dessa dissertação podem ser: investigar tipos de bases de IE e a melhor forma de construí-los, o impacto de usar IE em diferentes algoritmos de aprendizado, o uso de IE em diferentes tipos de problemas, a criação de um aplicativo ou dispositivo que possa ser utilizado pelo público.

52

Referências

AFFONSO, C. et al. Deep learning for biological image classification. v. 85, 05 2017. Citado 2 vezes nas páginas 21 e 23.

ALMAGAMBETOV, A.; VELIPASALAR, S.; BAITASSOVA, A. Mobile standards-based traffic light detection in assistive devices for individuals with color-vision deficiency. IEEE Transactions on Intelligent Transportation Systems, v. 16, n. 3, p. 1305–1320, June 2015. ISSN 1524-9050. Citado na página 25.

Almeida, A. B. Usando o Computador para Processamento de Imagens Médicas. 1998. Acesso em: 15 fev. 2015. Disponível em: <http://www.informaticamedica.org.br/informaticamedica/ n0106/imagens.htm>. Citado na página 19.

ALMEIDA, T.; VASCONCELOS, N.; BENICASA, A. Framework para detecção de semáforos baseado em atenção visual. In: Conference on Graphics, Patterns and Images, 28.(SIBGRAPI), Salvador. [S.l.: s.n.], 2015. Citado 2 vezes nas páginas 24 e 25.

ALMEIDA, T. et al. Fuzzy model applied to the recognition of traffic lights signals. In: 2016 8th Euro American Conference on Telematics and Information Systems (EATIS). [S.l.: s.n.], 2016. p. 1–4. Citado 2 vezes nas páginas 24 e 25.

BALCEREK, J. et al. Automatic detection of traffic lights changes from red to green and car turn signals in order to improve urban traffic. In: 2014 Signal Processing: Algorithms, Architectures, Arrangements, and Applications (SPA). [S.l.: s.n.], 2014. p. 110–115. ISSN 2326-0262. Citado na página 25.

BORRMANN, J. M. et al. Stellar - A case-study on systematically embedding a traffic light recognition. In: 17th International IEEE Conference on Intelligent Transportation Systems (ITSC). [S.l.: s.n.], 2014. p. 1258–1265. ISSN 2153-0009. Citado na página 24.

BRAGA, A. de P. Redes neurais artificiais: teoria e aplicações. LTC Editora, 2007. ISBN 9788521615644. Disponível em: <https://books.google.com.br/books?id=R-p1GwAACAAJ>. Citado 2 vezes nas páginas 20 e 21.

CAI, Z.; LI, Y.; GU, M. Real-time recognition system of traffic light in urban environment. In: 2012 IEEE Symposium on Computational Intelligence for Security and Defence Applications. [S.l.: s.n.], 2012. p. 1–6. ISSN 2329-6267. Citado na página 25.

CARVALHO, A.; FACELI, K. Inteligência artificial: uma abordagem de aprendizado de máquina. Grupo Gen - LTC, 2011. ISBN 9788521618805. Disponível em: <https: //books.google.com.br/books?id=4DwelAEACAAJ>. Citado 3 vezes nas páginas 19, 20 e 22. CET - Companhia de Engenharia de Tráfego. Análise da mortalidade ocorrida por acidentes de trânsito em agosto e setembro de 2016.2016. Acesso em: 09 ago. 2017. Disponível em: <http://www.cetsp.com.br/media/523410/parcial2016.pdf>. Citado na página 10.

CHARETTE, R. de; NASHASHIBI, F. Real time visual traffic lights recognition based on spot light detection and adaptive traffic lights templates. In: 2009 IEEE Intelligent Vehicles Symposium. [S.l.: s.n.], 2009. p. 358–363. ISSN 1931-0587. Citado 3 vezes nas páginas 25, 27 e 29.

Referências 53

CHEN, Q.; SHI, Z.; ZOU, Z. Robust and real-time traffic light recognition based on hierarchical vision architecture. In: 2014 7th International Congress on Image and Signal Processing. [S.l.: s.n.], 2014. p. 114–119. Citado na página 25.

CHEN, Z.; HUANG, X. Accurate and reliable detection of traffic lights using multiclass learning and multiobject tracking. IEEE Intelligent Transportation Systems Magazine, v. 8, n. 4, p. 28–42, winter 2016. ISSN 1939-1390. Citado 18 vezes nas páginas 7, 24, 25, 26, 27, 29, 30, 31, 32, 33, 34, 37, 38, 39, 40, 41, 42 e 50.

CHIU, Y. T.; CHEN, D. Y.; HSIEH, J. W. Real-time traffic light detection on resource-limited mobile platform. In: 2014 IEEE International Conference on Consumer Electronics - Taiwan. [S.l.: s.n.], 2014. p. 211–212. Citado na página 24.

CHOI, J.; AHN, B. T.; KWEON, I. S. Crosswalk and traffic light detection via integral framework. In: The 19th Korea-Japan Joint Workshop on Frontiers of Computer Vision. [S.l.: s.n.], 2013. p. 309–312. Citado na página 25.

CHUNG, Y.-C.; WANG, J.-M.; CHEN, S.-W. A vision-based traffic light detection system at intersections. Journal of National Taiwan Normal University: Mathematics, Science & Technology, v. 47, 2002. Citado 2 vezes nas páginas 25 e 27.

DIAZ-CABRERA, M.; CERRI, P.; SANCHEZ-MEDINA, J. Suspended traffic lights detection and distance estimation using color features. In: 2012 15th International IEEE Conference on Intelligent Transportation Systems. [S.l.: s.n.], 2012. p. 1315–1320. ISSN 2153-0009. Citado na página 11.

FACON, J. Processamento e analise de imagens. PUCP, 2002. Citado 2 vezes nas páginas 16 e 17.

FAIRFIELD, N.; URMSON, C. Traffic light mapping and detection. In: Proceedings of ICRA 2011. [S.l.: s.n.], 2011. Citado na página 29.

FAN, B.; LIN, W.; YANG, X. An efficient framework for recognizing traffic lights in night traffic images. In: 2012 5th International Congress on Image and Signal Processing. [S.l.: s.n.], 2012. p. 832–835. Citado na página 25.

FERNANDES, J. d. A.; MATOS, L. N.; ARAGãO, M. G. d. S. Geometrical approaches for facial expression recognition using support vector machines. In: 2016 29th SIBGRAPI Conference on Graphics, Patterns and Images (SIBGRAPI). [S.l.: s.n.], 2016. p. 347–354. Citado 2 vezes nas páginas 14 e 23.

GEVARTER, W. Artificial Intelligence, Expert Systems, Computer Vision, and Natural Language Processing. Noyes Publications, 1984. ISBN 9780815509943. Disponível em: <https://books.google.com.br/books?id=doFQAAAAMAAJ>. Citado 2 vezes nas páginas 15

e 17.

GOMEZ, A. E. et al. Traffic lights detection and state estimation using hidden markov models. In: 2014 IEEE Intelligent Vehicles Symposium Proceedings. [S.l.: s.n.], 2014. p. 750–755. ISSN 1931-0587. Citado na página 25.

GONG, J. et al. The recognition and tracking of traffic lights based on color segmentation and camshift for intelligent vehicles. In: 2010 IEEE Intelligent Vehicles Symposium. [S.l.: s.n.], 2010. p. 431–435. ISSN 1931-0587. Citado na página 24.

Referências 54

GONZALEZ R. C. E WOODS, R. E. Processamento Digital de Imagens - 3ª ed. [S.l.]: São Paulo: Pearson, 2010. Citado 3 vezes nas páginas 14, 15 e 16.

Gonçalves, Jéssica. Desrespeito à sinalização causa 7,5 mil acidentes no trânsito em 2014. 2015. Acesso em: 09 ago. 2017. Disponível em: <http://www.ebc.com.br/noticias/2015/07/ desrespeito-sinalizacao-causa-75-mil-acidentes-no-transito-em-2014>. Citado na página 10. GOODFELLOW, I.; BENGIO, Y.; COURVILLE, A. Deep Learning. [S.l.]: MIT Press, 2016. <http://www.deeplearningbook.org>. Citado 3 vezes nas páginas 19, 21 e 22.

GRANDO, N. Segmentação de imagens tomográficas visando a construção de modelos médicos. Dissertação de Mestrado do Programa de Pós-Graduação em Engenharia Elétrica e Informática Industrial. CEFET-PR - Centro Federal de Educação Tecnológica do Paraná, 2005. Citado 2 vezes nas páginas 15 e 18.

HAIR, J. et al. Multivariate data analysis 6th edition prentice hall. New Jersey, 2006. Citado na página 25.

HAYKIN, S. S. et al. Neural networks and learning machines. [S.l.]: Pearson Upper Saddle River, 2009. v. 3. Citado 4 vezes nas páginas 21, 22, 23 e 28.

JANG, C. et al. Multiple exposure images based traffic light recognition. In: 2014 IEEE Intelligent Vehicles Symposium Proceedings. [S.l.: s.n.], 2014. p. 1313–1318. ISSN 1931-0587. Citado na página 25.

JAYARAMAN, S. DIGITAL IMAGE PROCESSING. Tata McGraw-Hill Education, 2011. ISBN 9781259081439. Disponível em: <https://books.google.com.br/books?id=ttNuj2mmt4sC>. Citado na página 18.

JENSEN, M. B. et al. Vision for looking at traffic lights: Issues, survey, and perspectives. IEEE Transactions on Intelligent Transportation Systems, v. 17, n. 7, p. 1800–1815, July 2016. ISSN 1524-9050. Citado 2 vezes nas páginas 10 e 11.

JI, Y. et al. Integrating visual selective attention model with hog features for traffic light detection and recognition. In: 2015 IEEE Intelligent Vehicles Symposium (IV). [S.l.: s.n.], 2015. p. 280–285. ISSN 1931-0587. Citado 2 vezes nas páginas 24 e 25.

JIE, Y. et al. A new traffic light detection and recognition algorithm for electronic travel aid. In: 2013 Fourth International Conference on Intelligent Control and Information Processing (ICICIP). [S.l.: s.n.], 2013. p. 644–648. Citado na página 24.

JOHN, V. et al. Saliency map generation by the convolutional neural network for real-time traffic light detection using template matching. IEEE Transactions on Computational Imaging, v. 1, n. 3, p. 159–173, Sept 2015. ISSN 2333-9403. Citado 2 vezes nas páginas 24 e 25. JOHN, V. et al. Traffic light recognition in varying illumination using deep learning and saliency map. In: 17th International IEEE Conference on Intelligent Transportation Systems (ITSC). [S.l.: s.n.], 2014. p. 2286–2291. ISSN 2153-0009. Citado 3 vezes nas páginas 24, 25 e 29.

JOHN, V.; ZHEMING, L.; MITA, S. Robust traffic light and arrow detection using optimal camera parameters and gps-based priors. In: 2016 Asia-Pacific Conference on Intelligent Robot Systems (ACIRS). [S.l.: s.n.], 2016. p. 204–208. Citado na página 24.

Referências 55

JÚNIOR, C. A. et al. Uma arquitetura híbrida lstm-cnn para reconhecimento de entidades nomeadas em textos naturais em língua portuguesa. Encontro Nac. de Int. Artificial e Computacional - ENIAC (2016), 2016. Citado na página 22.

Karpathy, A. CS231n: Convolutional Neural Networks for Visual Recognition. 2017. Acesso em: 04 ago. 2017. Disponível em: <http://cs231n.github.io>. Citado 2 vezes nas páginas 20 e 21. KIM, S. et al. Real time object detection based on saliency map. In: 2016 IEEE International Conference on Consumer Electronics (ICCE). [S.l.: s.n.], 2016. p. 534–535. Citado na página 24.

LEVINSON, J. et al. Traffic light mapping, localization, and state detection for autonomous vehicles. In: 2011 IEEE International Conference on Robotics and Automation. [S.l.: s.n.], 2011. p. 5784–5791. ISSN 1050-4729. Citado 2 vezes nas páginas 25 e 29.

LI-TIAN, Z. et al. A framework of traffic lights detection, tracking and recognition based on motion models. In: 17th International IEEE Conference on Intelligent Transportation Systems (ITSC). [S.l.: s.n.], 2014. p. 2298–2303. ISSN 2153-0009. Citado na página 29.

LORENA, A. C.; CARVALHO, A. C. P. L. F. de. Protein cellular localization with multiclass support vector machines and decision trees. In: Proceedings of the 2005 Brazilian Conference on Advances in Bioinformatics and Computational Biology. Berlin, Heidelberg: Springer-Verlag, 2005. (BSB’05), p. 42–53. ISBN 3-540-28008-1, 978-3-540-28008-8. Disponível em: <http://dx.doi.org/10.1007/11532323_6>. Citado na página 23.

LUGER, G. F. Artificial intelligence: structures and strategies for complex problem solving. [S.l.]: Pearson education, 2005. Citado na página 23.

MASCETTI, S. et al. Robust traffic lights detection on mobile devices for pedestrians with visual impairment. Comput. Vis. Image Underst., Elsevier Science Inc., New York, NY, USA, v. 148, n. C, p. 123–135, jul. 2016. ISSN 1077-3142. Disponível em: <https://doi.org/10.1016/j.cviu.2015.11.017>. Citado na página 25.

MICHAEL, M.; SCHLIPSING, M. Extending traffic light recognition: Efficient classification of phase and pictogram. In: 2015 International Joint Conference on Neural Networks (IJCNN). [S.l.: s.n.], 2015. p. 1–8. ISSN 2161-4393. Citado na página 25.

MICHALSKI, R. S.; CARBONELL, J. G.; MITCHELL, T. M. Machine learning: An artificial intelligence approach. [S.l.]: Springer Science & Business Media, 2013. Citado na página 19. MORALES, D.; CENTENO, T. M.; MORALES, R. C. Extração automática de marcadores anatômicos no desenvolvimento de um sistema de auxílio ao diagnóstico postural por imagens. III Workshop de Informática aplicada à Saúde - CBComp, 2003. Citado na página 14.

MORGAN, J. Técnicas de segmentação de imagens na geração de programas para máquinas de comando numérico. Dissertação (Mestrado em Engenharia de Produção) - Universidade Federal de Santa Maria, 2008. Citado 2 vezes nas páginas 14 e 18.

OMACHI, M.; OMACHI, S. Traffic light detection with color and edge information. In: 2009 2nd IEEE International Conference on Computer Science and Information Technology. [S.l.: s.n.], 2009. p. 284–287. Citado na página 25.

Referências 56

OMACHI, M.; OMACHI, S. Detection of traffic light using structural information. In: IEEE 10th INTERNATIONAL CONFERENCE ON SIGNAL PROCESSING PROCEEDINGS. [S.l.: s.n.], 2010. p. 809–812. ISSN 2164-5221. Citado 2 vezes nas páginas 24 e 25.

ONIGA, F.; PRODAN, S.; NEDEVSCHI, S. Traffic light detection on mobile devices. In: 2015 IEEE International Conference on Intelligent Computer Communication and Processing (ICCP). [S.l.: s.n.], 2015. p. 287–292. Citado na página 24.

PEREIRA, E. T. Atenção visual bottom-up guiada por otimização via algoritmos genéticos. Campina Grande, 2007. Citado na página 17.

PHILIPSEN, M. P. et al. Traffic light detection: A learning algorithm and evaluations on challenging dataset. In: 2015 IEEE 18th International Conference on Intelligent Transportation Systems. [S.l.: s.n.], 2015. p. 2341–2345. ISSN 2153-0009. Citado na página 24.

SALARIAN, M.; MANAVELLA, A.; ANSARI, R. A vision based system for traffic lights recognition. In: 2015 SAI Intelligent Systems Conference (IntelliSys). [S.l.: s.n.], 2015. p. 747–753. Citado na página 25.

SANTOS, R. M. et al. Speech recognition in noisy environments with convolutional neural networks. In: 2015 Brazilian Conference on Intelligent Systems (BRACIS). [S.l.: s.n.], 2015. p. 175–179. Citado na página 22.

SATHIYA, S.; BALASUBRAMANIAN, M.; PRIYA, D. V. Real time recognition of traffic light and their signal count-down timings. In: International Conference on Information Communication and Embedded Systems (ICICES2014). [S.l.: s.n.], 2014. p. 1–6. Citado na página 24.

SHI, X.; ZHAO, N.; XIA, Y. Detection and classification of traffic lights for automated setup of road surveillance systems. Multimedia Tools Appl., Kluwer Academic Publishers, Hingham, MA, USA, v. 75, n. 20, p. 12547–12562, out. 2016. ISSN 1380-7501. Disponível em: <http://dx.doi.org/10.1007/s11042-014-2343-1>. Citado na página 25.

SHI, Z.; ZOU, Z.; ZHANG, C. Real-time traffic light detection with adaptative background suppression filter. IEEE Transactions on Intelligent Transportation Systems, v. 17, n. 3, p. 690–700, March 2016. ISSN 1524-9050. Citado 17 vezes nas páginas 7, 8, 22, 24, 25, 26, 27, 29, 30, 31, 32, 37, 38, 45, 46, 49 e 50.

SOOKSATRA, S.; KONDO, T. Red traffic light detection using fast radial symmetry transform. In: 2014 11th International Conference on Electrical Engineering/Electronics, Computer, Telecommunications and Information Technology (ECTI-CON). [S.l.: s.n.], 2014. p. 1–6. Citado na página 24.

SUNG, T.-P.; TSAI, H.-M. Real-time traffic light recognition on mobile devices with geometry-based filtering. In: 2013 Seventh International Conference on Distributed Smart Cameras (ICDSC). [S.l.: s.n.], 2013. p. 1–7. Citado na página 29.

TREHARD, G. et al. Tracking both pose and status of a traffic light via an interacting multiple model filter. In: 17th International Conference on Information Fusion (FUSION). [S.l.: s.n.], 2014. p. 1–7. Citado na página 24.

WANG, Z. et al. Traffic lights recognition based on pcanet. In: 2015 Chinese Automation Congress (CAC). [S.l.: s.n.], 2015. p. 559–564. Citado 2 vezes nas páginas 24 e 25.

Referências 57

WEBER, M.; WOLF, P.; ZöLLNER, J. M. Deeptlr: A single deep convolutional network for detection and classification of traffic lights. In: 2016 IEEE Intelligent Vehicles Symposium (IV). [S.l.: s.n.], 2016. p. 342–348. Citado 2 vezes nas páginas 24 e 25.

WIDYANTORO, D. H.; SAPUTRA, K. I. Traffic lights detection and recognition based on color segmentation and circle hough transform. In: 2015 International Conference on Data and Software Engineering (ICoDSE). [S.l.: s.n.], 2015. p. 237–240. Citado na página 24.

YING, J.; TIAN, J.; LEI, L. Traffic light detection based on similar shapes searching for visually impaired person. In: 2015 Sixth International Conference on Intelligent Control and Information Processing (ICICIP). [S.l.: s.n.], 2015. p. 376–380. Citado na página 29.

YONEDA, K.; SUGANUMA, N.; ALDIBAJA, M. A. Simultaneous state recognition for multiple traffic signals on urban road. In: 2016 11th France-Japan 9th Europe-Asia Congress on Mechatronics (MECATRONICS) /17th International Conference on Research and Education in Mechatronics (REM). [S.l.: s.n.], 2016. p. 135–140. Citado na página 29.

ZHANG, Y. et al. A multi-feature fusion based traffic light recognition algorithm for intelligent vehicles. In: Proceedings of the 33rd Chinese Control Conference. [S.l.: s.n.], 2014. p. 4924–4929. Citado 2 vezes nas páginas 24 e 29.

Documentos relacionados