• Nenhum resultado encontrado

4.3 Determinação da posição do objeto no ambiente

4.3.2 Caso Real

No caso real, o ambiente está contido na cidade de Belo Horizonte - Minas Gerais (MG) na regional da Pampulha, explicitado naFigura 26que contém os pontos geodésicos de referência. Ressalta-se que os eixos dospixelsda elevação são invertidos para coincidirem com a referência cartesiana padrão, ou seja,py−utilizado =h−py−padrao−das−imagens.

Capítulo 4. Resultados experimentais 43

Figura 26 – Região de estudo para o caso real

A escolha dos pontos, justificados noSeção 3.1, delimitam a área de estudo que está disposta na Figura 26 entre as linhas em vermelho com o uso dosoftware Google Earth. Os pontos representados pela letraae com o símbolo de uma circunferência são os pontos geodésicos usados para determinar os parâmetros da câmera. A marcação em verde representa o ponto de teste que serve de exemplo para mostrar a exatidão do algoritmo.

Após a determinação da área de estudos, utiliza-se aAPI Elevationda plataforma do Google para captar os dados referentes à elevação do ambiente. Assim, com os dados de limites e com o tamanho do grid determinado (480, 586), obtém-se o relevo com as coordenadas geodésicas. Em seguida, é necessário converter os dados geodésicos em metros para determinar a posição do objeto no ambiente, utilizando para tanto a Equação (34) descrita naSubsubseção 3.2.2.1. Cabe mencionar que, em paralelo a esta equação, utiliza-se uma das ferramentas do Google Earth para medir a distância entre os pontos.

Após determinar o relevo da região de estudo em metros, selecionam-se alguns pontos na imagem, identificados na Figura 27, com as respectivas posições conhecidas no ambiente. Com o auxílio do Google Earth e daFigura 27, por meio de inspeção visual, identificam-se os pontos geodésicos de cada referência, denominado de a, b, c e e, indicados na Figura 26. De forma análoga a etapa da conversão em metros dos pontos de referência, converte-se em metros esses pontos e os referenciados na imagem. Assim, determina-se a referência de cada posição no ambiente para servir de base para o método descrito naSeção 3.2. Estes dados estão dispostos naTabela 5.

Após determinar todos os pontos fiduciais, inicia-se a determinação dos parâmetros da câmera como posição inicial, direção e abertura da câmera, descritos naSubseção 3.2.1.

Deste modo, encontra-se a posição na posição dep = (973,08,119,64, 901,37), direção

Capítulo 4. Resultados experimentais 44

Tabela 5 – Referência dos Pontos Fiduciais.

Referência Latitude(◦) Longitude(o) x(m) y(m) Px Py Elevação(m)

A1 -19,874685 -43,983487 0,00 1385,57 - -

-A2 -19,874685 -43,973303 1133,68 1385,57 - -

-A3 -19,886390 -43,973303 1133,68 0,00 - -

-A4 -19,886390 -43,983487 0,00 0,00 - -

-Câmera -19,885087 -43,974836 963,03 154,25 - - 865,18 a -19,884362 -43,975112 932,30 240,07 552 238 846,43 b -19,880996 -43,978154 593,67 638,52 220 568 842,65 c -19,875391 -43,977202 699,64 1302,00 660 613 835,96 e -19,877751 -43,978796 522,20 1022,64 510 523 846,04

Figura 27 – Foto de referência dos pontos fiduciais

a b

e c

f

d = (−0,3155,0,9040, −0,2885)e abertura da câmeraα= 54.96.

Em seguida, escolhe-se o pixel e = (510, 523) da Figura 27 como teste. Deste modo, por meio de inspeção visual daFigura 27, é estabelecida que aquela posição de pixel e correspondeu à localização geodésica pe = (−19,877751,−43,978796). Assim, demonstrado naFigura 28a, aplica-se o cálculo vetorial da direção dopixel e determina-se a direção. A partir disso, utiliza-se interpolação da direção da câmera nos dados da superfície e encontra-se a projeção desta direção sobre o relevo. Esta operação é transformada em um plano, indicada naFigura 28b, onde a reta azul corresponde ao relevo e a reta vermelha à direção da câmera. Os asteriscos nesta figura representam a divisão dos pontos do

Capítulo 4. Resultados experimentais 45

Teorema 1. Em especial, os asteriscos em vermelho correspondem à primeira interseção entre a direção da câmera e o relevo, indicando que naquele intervalo ocorre a troca de sinal naEquação (32). Por meio do ponto de teste, localiza-se a posição do objeto na superfície cujo valor é de pe = (545,9,977,3,841,2)apontado naFigura 29.

Figura 28 – Resultado da localização do método numérico para o pontoe

(a)

0 200 400 600 800 1000 1200

Direção[m]

Direção da Câmera e da superfície

Elevação da Superfície Direção da Câmera Pontos relativos ao Teorema Intervalo da raiz

(b)

0 200 400 600 800 1000 1200

Direção da superfície[m]

-50 0 50

Diferença na elevação[m]

Diferença entre a direção da Câmera e da superfície h( )

Diferença entre a direção da Câmera e da superfície Eixo de referência (h( )=0)

Pontos relativos ao Teorema Intervalo da raiz

(c)

De forma análoga, tendo como referência a fumaça indicada naFigura 27, opixel f corresponde um possível foco de incêndio. A determinação do pixel é encontrada por inspeção visual, obtendo-se o valor def = (510,523). A partir disso, é considerado um

Capítulo 4. Resultados experimentais 46

Figura 29 – Localização do pontoe

novo caso e determina-se novamente todos os parâmetros da câmera(abertura, direção e a posição da câmera). Obtêm-se os seguintes resultados:α= 54.97,d= (−0,3154,0,9038,− 0,2894) e p = (973,07, 119,69, 901,35) . A Figura 30 indica a direção daquele pixel em vermelho, a projeção desta direção sobre o relevo, pontos doTeorema 1em verde e o início do intervalo de onde ocorre a interseção entre as funções. Já aFigura 30beFigura 30c correspondem ao plano das direções presentes Figura 30a. Assim, o pontof localizado na posiçãopf = (780,0,621,4,827,3)e identificado naFigura 31. Finaliza-se este trabalho com a localização dos pontos ee f, apresentados naFigura 32.

Tendo em vista aFigura 32, o resultado do ponto e destoa do valor obtido pelo método proposto. Em função disso, é feita uma análise do resultado a partir dos pontos oriundos da aquisiçãoda malha em volta do ponto localizado, ilustrado naFigura 33. Os pontos em vermelho representam as aquisições de elevação e o ponto em azul a localização do objeto. Observa-se que a região em torno do ponto em azul, forma-se um plano onde está localizado um edifício cuja região deveria ser a base dele ou a estrutura. Em função disso, constata-se que um dos motivos deste resultado é devido a aquisição dos dados da superfície que não incluía as estruturas ou a precisão adotada pelo SIG.

Capítulo 4. Resultados experimentais 47

Figura 30 – Resultado da localização do método numérico para o pontof

(a)

0 200 400 600 800 1000 1200

Direção[m]

850 900 950 1000

Elevação[m]

Direção da Câmera e da superfície

Elevação da Superfície Direção da Câmera Pontos relativos ao Teorema Intervalo da raiz

(b)

0 200 400 600 800 1000 1200

Direção da superfície[m]

-100 -50 0 50

Diferença na elevação[m]

Diferença entre a direção da Câmera e da superfície h( )

Diferença entre a direção da Câmera e da superfície Eixo de referência (h( )=0)

Pontos relativos ao Teorema Intervalo da raiz

(c)

Capítulo 4. Resultados experimentais 48

Figura 31 – Localização do pontof

Figura 32 – Resultado final

(a) 2D (b) 3D

Capítulo 4. Resultados experimentais 49

Figura 33 – Localização do pontoecom os pontos da malha

50

5 Conclusão

Este trabalho apresentou dois modelos para fazer o controle do posicionamento da câmera: modelo analítico e interpolação. Além disso, utilizou-se sistemas de equações não lineares para determinar os parâmetros da câmera para iniciar a localização. Por fim, empregou-se o método de interpolação de malha e o numérico para determinar a localização do objeto na superfície.

Ambos os modelos, analítico e numérico por interpolação, apresentaram erros aceitáveis, ou seja, próximos à variação da captura de imagem pela câmera (0,1). A interpolação apresentou um erro() MSE2,1181×10−04,5,0240×10−04e1,2455×10−03, nas direções dx, dy e dz, respectivamente. Enquanto o modelo numérico, apresentou 9,2528×10−05,3,1423×10−04,9,1202×10−05, nas direções dx, dy e dz, respectivamente.

Destaca-se que o modelo numérico mais fidedigno e é cerca de 3,94 vezes mais preciso na soma dos MSE e para a direção dz, 13,66 vezes mais preciso. Entretanto, o tempo médio para analisar o método analítico foi de7,522×10−06segundos e o numérico com 8,366×10−03 segundos os dados obtidos foram 1.100 vezes maior em relação ao outro.

Em contrapartida, o modelo analítico pode ser otimizado por meio da alteração dos valores de entrada, incluindo fatores de correções que contribuam para uma precisão mais refinada.

Assim, a escolha dos métodos dependerá de acordo com o projeto, que exigirá uma resposta mais rápida ou mais precisa.

A localização do objeto foi obtida por meio da saída dos modelos que apontaram uma direção geográfica. A precisão desta direção está relacionada diretamente ao espaçamento dos pontos da superfície. Cabe ressaltar que para cada direção houve uma curva de relevo diferente a qual demandou nova operação dos cálculos, ou seja, uso de um dos modelos e, em seguida, o algoritmo de interseção do relevo. Assim, caso a superfície local seja muito acidentada o valor da malha deve ser maior do que estimado neste trabalho; caso contrário, igual ou inferior. Por fim, este trabalho alcançou erro próximo à diferença entre captura de imagem e localizou o objeto no ambiente.

5.1 Sugestões para trabalhos futuros

• Encontrar uma equação direta com os dados adquiridos. Em posse dos dados de treinamento, é possível determinar a posição em pixel e a direção da câmera em que se deve posicionar no espaço, mas para tanto, deve-se referenciar a posição geográ-fica daquele pixel (figuratemplate). Assim, pode-se determinar o posicionamento da câmera no espaço sem que necessite localizar os parâmetros da câmera novamente;

• Utilizar outros métodos para o controle da câmera. Foi constatado por meio dos dados que é possível controlar a câmera por outros métodos, como redes neurais e

Capítulo 5. Conclusão 51

regressões multilineares, com acurácia maior que97%tanto para o treino quanto para o teste. Entretanto, é necessário também, referenciar a posição geográfica do pixel template;

• Aumentar a janela dos resultados dos dados. Para este trabalho foi escolhido aumentar os dados corretos do que a quantidade dos dados, ou seja, decidiu-se ter menos pontos de amostras para garantir que estivessem corretos. Em consequência disso, os erros provenientes de pontos mais distantes do centro foram mitigados na análise;

• Utilizar a aquisição dos dados geográficos com construções. Este trabalho utilizou os dados da API google Elevation que não incluía edifícios ou outras formas que podem alterar a geometria do relevo. Assim, caso a direção estivesse incidindo em uma estrutura, a localização seria encontrada após a estrutura, por exemplo;

• Otimizar a extração de dados. A aquisição foi feita por meio da linguagem python e utilizou-se, principalmente, a CPU para a realização dos cálculos (cerca de 6 dias ininterruptos). Caso utilizasse a GPU ou alterasse a linguagem exclusivamente da extração, esse tempo poderia ser reduzido;

• Incluir o ângulo inicial de elevação da câmera naEquação (17). O produto vetorial é feito pelo eixodz, do qual se obtém as direções iniciais cujo ângulo de elevação é zero e o ângulo de azimute é obtido por meio de sistemas não-lineares. Isto significa que esse modelo reflete fielmente quando começa na posição inicial de elevação. Os demais ângulos, quando iniciados em outras posições, apresentam um pequeno erro decorrente a está aproximação. Para isto, sugere-se a alteração das configurações da câmera no quesito desetpoint das posições iniciais e finais de elevação. Em seguida, compará-las aos limites mecânicos da movimentação de elevação e, por fim, inseri-las naEquação (17).

52

Referências

AIRNOW. 2021. Disponível em:<https://www.airnow.gov/>. Acesso em: 26 de fevereiro de 2021. Citado na página2.

BACKES, A. R.; JUNIOR, J. J. d. M. S. Introdução à Visão Computacional Usando MATLAB. [S.l.: s.n.], 2016. 288 p. ISBN 13: 9788550800233. Citado na página1.

BAJJALI, W. ArcGIS for Environmental and Water Issues. [S.l.: s.n.], 2017. ISBN 13:

978-3319611570. Citado na página1.

BARBER, C. B.; DOBKIN, D. P.; HUHDANPAA, H. The quickhull algorithm for convex hulls.

ACM TRANSACTIONS ON MATHEMATICAL SOFTWARE, v. 22, n. 4, p. 469–483, 1996.

Citado na página23.

BERRUT, J.-P.; TREFETHEN, L. N. Barycentric lagrange interpolation.SIAM Review, v. 46, n. 3, p. 501–517, 2004. Disponível em: <https://doi.org/10.1137/S0036144502417715>.

Citado na página13.

BLENDER.Blender Foundation. 2020. Disponível em:<https://www.blender.org/features/>.

Acesso em: 04 de janeiro de 2020. Citado na página35.

BOYCE, W.; DIPRIMA, R.Equações diferenciais elementares e problemas de valores de contorno. Livros Técnicos e Científicos, 2002. ISBN 9788521613121. Disponível em:

<https://books.google.com.br/books?id=LMXtAAAACAAJ>. Citado na página13.

BURDEN, R. L.; FAIRES, D. J. Numerical analysis. 3. ed. Boston: PWS Publishing Com-pany, 1985. ISBN 0-87150-857-5. Citado na página27.

BURGER, W.; BURGE, M. J.Digital Image Processing: An algorithmic introduction using java. 2. ed. Springer, 2016. ISBN 978-1-4471-6684-9. Disponível em:<https://link.springer.

com/book/10.1007/978-3-642-20144-8#toc>. Citado 2 vezes nas páginas8e10.

BURROUGH, P. et al.Principles of Geographical Information Systems. [S.l.]: OUP Ox-ford, 2015. ISBN 9780198742845. Citado na página 1.

BURROUGH, P. A.; MCDONNELL, R. M. . R. A.; LLOYD, C. D.Principles of Geographical Information Systems. [S.l.]: Oxford University Press, 1986. ISBN 978-0198233657. Citado na página18.

CHAPRA, S. C.; CANALE, R. P.Métodos Numéricos para Engenharia - 5.ed.McGraw Hill Brasil, 2009. ISBN 9788580550115. Disponível em: <https://books.google.com.br/books?

id=ch7MLP20q3MC>. Citado na página15.

COMASTRI, J. A. Topografia planimetria. 2. ed. [S.l.]: Universidade Federal de Viçosa, 1992. Citado na página17.

COMASTRI, J. A.; TULER, J. C. Topografia altimetria. 2. ed. [S.l.]: Universidade Federal de Viçosa, 1987. Citado na página17.

Referências 53

COMMUNITY, B. O.Blender - a 3D modelling and rendering package. Stichting Blender Foundation, Amsterdam, 2020. Disponível em:<http://www.blender.org>. Citado 2 vezes nas páginas33e35.

CORKE, P. Robotics,Vision and Control: Fundamental algorithms in matlab. Springer, 2011. ISBN 978-3-642-20143-1. Disponível em: <https://link.springer.com/book/10.1007/

978-3-642-20144-8#toc>. Citado 2 vezes nas páginas10e 11.

D’AGOSTINO, R.; PEARSON, E. S. Tests for departure from normality. empirical results for the distributions of b2 and b1.Biometrika, [Oxford University Press, Biometrika Trust], v. 60, n. 3, p. 613–622, 1973. ISSN 00063444. Disponível em:<http://www.jstor.org/stable/

2335012>. Citado na página36.

D’AGOSTINO, R. B. An omnibus test of normality for moderate and large size samples.

Biometrika, [Oxford University Press, Biometrika Trust], v. 58, n. 2, p. 341–348, 1971. ISSN 00063444. Disponível em: <http://www.jstor.org/stable/2334522>. Citado na página36.

DAVIS, W.; SARASUA, W.; MCCORMAC, J.Topografia. LTC, 2016. ISBN 9788521627883.

Disponível em:<https://books.google.com.br/books?id=MZFavgAACAAJ>. Citado 3 vezes nas páginas16,17e18.

FITZ, P. R. Geoprocessamento sem complicação. Oficina de Textos, 2008.

ISBN 978-85-86238-82-6. Disponível em: <https://www.lojaofitexto.com.br/

geoprocessamento-sem-complicacao/p>. Citado na página18.

HARDER, C.The ArcGIS Book: 10 Big Ideas about Applying Geography to Your World.

1st. ed. [S.l.]: Esri Press, 2015. ISBN 1589484495. Citado na página3.

HO, G. T. S. et al. A computer vision-based roadside occupation surveillance system for intelligent transport in smart cities.Sensors, MDPI AG, v. 19, n. 8, p. 1796, Apr 2019. ISSN 1424-8220. Disponível em:<http://dx.doi.org/10.3390/s19081796>. Citado na página1.

HOEKENDIJK, J. P. A. et al. Estimating the spatial position of marine mammals based on digital camera recordings.Ecology and Evolution, v. 5, n. 3, p. 578–589, 2015. Disponível em: <https://onlinelibrary.wiley.com/doi/abs/10.1002/ece3.1353>. Citado na página1.

HÖFLING, T. T. A. et al. Read my face: Automatic facial coding versus psychophysiological indicators of emotional valence and arousal.Frontiers in psychology, v. 11, p. 1388, 2020.

ISSN 1664-1078. Disponível em: <https://europepmc.org/articles/PMC7316962>. Citado na página1.

HUANG, Y. et al. Epan: Effective parts attention network for scene text recognition.

Neurocomputing, v. 376, p. 202 – 213, 2020. ISSN 0925-2312. Disponível em: <http:

//www.sciencedirect.com/science/article/pii/S0925231219313839>. Citado na página1.

HUNTER, J. D. Matplotlib: A 2d graphics environment. Computing in Science & Enginee-ring, IEEE COMPUTER SOC, v. 9, n. 3, p. 90–95, 2007. Citado na página33.

ITSEEZ. The OpenCV Reference Manual. 2.4.9.0. ed. [S.l.], 2014. Citado na página8.

ITSEEZ. Open Source Computer Vision Library. 2015. <https://github.com/itseez/

opencv>. Citado na página33.

Referências 54

JONES, E. et al.SciPy: Open source scientific tools for Python. 2001–. Disponível em:

<http://www.scipy.org/>. Citado 2 vezes nas páginas33e34.

KLETTE, R. Concise Computer Vision: An Introduction into Theory and Algorithms.

[S.l.]: Springer Publishing Company, Incorporated, 2014. ISBN 1447163192. Citado 4 vezes nas páginas1,5,6e7.

KLUYVER, T. et al. Jupyter notebooks – a publishing format for reproducible computational workflows. In: LOIZIDES, F.; SCHMIDT, B. (Ed.). Positioning and Power in Academic Publishing: Players, Agents and Agendas. [S.l.], 2016. p. 87 – 90. Citado na página33.

KULIKAJEVAS, A. et al. Reconstruction of 3d object shape using hybrid modular neural network architecture trained on 3d models from shapenetcore dataset. Sensors, Multidisci-plinary Digital Publishing Institute, v. 19, n. 7, p. 1553, 2019. Citado na página1.

MATLAB. 9.7.0.1190202 (R2019b). Natick, Massachusetts: The MathWorks Inc., 2018.

Citado 2 vezes nas páginas33e 34.

MATLAB.2-D Gaussian filtering of images. 2020. Disponível em:<https://www.mathworks.

com/help/images/ref/imgaussfilt.html>. Acesso em: 19 de março de 2020. Citado na página 7.

MATLAB.Display Separated Color Channels of RGB Image. 2020. Disponível em:<https:

//www.mathworks.com/help/images/display-separated-color-channels-of-rgb-image.html>.

Acesso em: 19 de março de 2020. Citado na página7.

MCKINNEY, W. et al. Data structures for statistical computing in python. In: AUSTIN, TX.

Proceedings of the 9th Python in Science Conference. [S.l.], 2010. v. 445, p. 51–56.

Citado 2 vezes nas páginas33e 34.

MILOSAVLJEVI´c, A. et al. A method for estimating surveillance video georeferences.ISPRS International Journal of Geo-Information, MDPI AG, v. 6, n. 7, p. 211, Jul 2017. ISSN 2220-9964. Disponível em:<http://dx.doi.org/10.3390/ijgi6070211>. Citado na página1.

ON a Test of Whether one of Two Random Variables is Stochastically Larger than the Other.

The Annals of Mathematical Statistics, Institute of Mathematical Statistics, v. 18, n. 1, p.

50–60, 1947. ISSN 00034851. Disponível em:<http://www.jstor.org/stable/2236101>. Citado na página36.

OpenStreetMap contributors.Planet dump retrieved from https://planet.osm.org. 2017.

<https://www.openstreetmap.org>. Citado na página3.

PEDREGOSA, F. et al. Scikit-learn: Machine Learning in Python . Journal of Machine Learning Research, v. 12, p. 2825–2830, 2011. Citado 2 vezes nas páginas33e34.

Ragesh, N. K.; Rajesh, R. Pedestrian detection in automotive safety: Understanding state-of-the-art.IEEE Access, v. 7, p. 47864–47890, 2019. Citado na página1.

RUGGIERO, M.; LOPES, V. da R. Cálculo numérico: aspectos teóricos e computa-cionais. Pearson Makron Books, 1996. ISBN 9788534602044. Disponível em: <https:

//books.google.com.br/books?id=kuRDAAAACAAJ>. Citado 2 vezes nas páginas13e 14.

SCHWAB, K. The Fourth Industrial Revolution. USA: Crown Publishing Group, 2017.

ISBN 1524758868. Citado na página 2.

Referências 55

SCIPY. SciPy v1.4.1 Reference Guide: Scipy interpolate linearndinterpolator. 2020.

Disponível em: <https://docs.scipy.org/doc/scipy/reference/generated/scipy.interpolate.

LinearNDInterpolator.html>. Acesso em: 23 de março de 2020. Citado na página23.

SHETTY, S. J. Vision-based inspection system employing computer vision & neural networks for detection of fractures in manufactured components. CoRR, abs/1901.08864, 2019.

Disponível em:<http://arxiv.org/abs/1901.08864>. Citado na página1.

SILVA, R. et al. On the applicability of inverse perspective mapping for the forward distance estimation based on the hsv colormap. In: . [S.l.: s.n.], 2017. Citado na página2.

SZELISKI, R.Computer Vision. 1. ed. [S.l.]: Springer-Verlag London, 2011. ISBN 978-1-84882-935-0. Citado 4 vezes nas páginas1,6,13e14.

TATEOSIAN, L. Python For ArcGIS. [S.l.: s.n.], 2015. 538 p. ISBN 978-3-319-18398-5.

Citado na página1.

TUKEY, J. W. Exploratory Data Analysis. [S.l.]: Addison-Wesley, 1977. Citado na página 31.

WALT, S. v. d.; COLBERT, S. C.; VAROQUAUX, G. The numpy array: A structure for efficient numerical computation.Computing in Science & Engineering, v. 13, n. 2, p. 22–30, 2011.

Disponível em:<https://aip.scitation.org/doi/abs/10.1109/MCSE.2011.37>. Citado na página 33.

XIE, Y. et al. Integration of multi-camera video moving objects and gis.ISPRS International Journal of Geo-Information, v. 8, n. 12, 2019. ISSN 2220-9964. Disponível em:<https:

//www.mdpi.com/2220-9964/8/12/561>. Citado na página2.

ZHOU, Q. et al. An automatic surface defect inspection system for automobiles using machine vision methods.Sensors, Multidisciplinary Digital Publishing Institute, v. 19, n. 3, p. 644, 2019. Citado na página1.

ZHU, J.; FANG, Y. Learning object-specific distance from a monocular image. In: Procee-dings of the IEEE/CVF International Conference on Computer Vision. [S.l.: s.n.], 2019.

p. 3839–3848. Citado na página2.

ZILL, D.Equações Diferenciais com aplicações em Modelagem. Thomson, 2003. ISBN 9788522103140. Disponível em:<https://books.google.com.br/books?id=qdcM6PrecU4C>.

Citado na página13.

Documentos relacionados