• Nenhum resultado encontrado

3. ASSOCIAÇÃO DO MÓDULO DE IDENTIFICAÇÃO AUTOMÁTICA DO

3.3.1. EXTRAÇÃO DE DADOS VEICULARES

Baseado no texto de dissertação de mestrado de MARCOMINI (2018) e de maneira similar ao estudado e apresentado por CUNHA (2013) o módulo IACT é capaz de detectar e separar os veículos (objetos em movimento) do fundo (objetos estáticos) presentes no vídeo. Esse processo de diferenciar ou separar os objetos de interesse do plano de fundo ocorre pela subtração entre o frame atual e um modelo do plano de fundo, sendo que a geração desse modelo de plano de fundo tem um grande impacto para melhorar a segmentação dos veículos presentes na corrente de tráfego.

9 Plataforma Anaconda disponível no site <https://www.continuum.io/downloads> 10 OpenCV disponível no site <http://opencv.org>

11 Scikit-image disponível no site <https://scikit-image.org/>

Uma vez tendo os veículos identificados e separados do plano de fundo o sistema inicia a etapa de rastreamento (tracking) presente no algoritmo que deverá avaliar quais dos pixels que compõem os veículos em geral (objetos em movimento) serão importantes para que seja possível relacionar o mesmo veículo em diferentes frames sucessivos, ou seja, permitir que uma associação temporal seja realizada para um mesmo veículo durante todo o seu percurso. Essa associação temporal permite que o algoritmo colete e armazene cada uma das coordenadas de cada um dos veículos ao longo de cada um dos momentos,

frames, de cada trajetória realizada, disponibilizando assim dados veiculares como posição ao longo do

tempo (diagrama espaço tempo) e dados de velocidade, aceleração etc.

A Figura 30 mostra as principais etapas do módulo IACT proposto por MARCOMINI (2018).

Figura 30: Fluxograma das etapas do sistema de Identificação Automática do Comportamento do Tráfego (IACT) proposto por MARCOMINI (2018).

Fonte: Adaptado de MARCOMINI (2018).

Etapa 1.1. REGIÃO DE INTERESSE (ROI)

Ao se utilizar o sistema de MARCOMINI (2018), o usuário inicialmente delimita uma região de interesse (Region of Interest - ROI). Essa região é demarcada logo no primeiro frame da sequência de imagens, antes que haja movimentação dos veículos. Vale ressaltar algumas particularidades nessa etapa: (i) as coordenadas dos vértices da ROI são baseadas a partir do frame original do vídeo em questão; (ii) a ROI deve evitar regiões as quais a possibilidade da presença de veículos é bem baixa, como o caso do canteiro central e regiões vizinhas ao fluxo de veículos. Entretanto dependendo da perspectiva da filmagem é aconselhável que a ROI contenha parte do acostamento para facilitar a delimitação da região. A Figura 31 elucida os instantes iniciais da utilização do programa.

Figura 31: Determinação da ROI utilizando o sistema proposto por MARCOMINI (2018) e um dos vídeos do tráfego coletados no Capítulo 2 deste trabalho.

Region of Interest - ROI determinada pelos pontos 𝑃0 , 𝑃1, 𝑃2 e 𝑃3.

Fonte: O autor.

Nesta etapa é imprescindível que se conheça algumas dimensões no mundo real, contidas na ROI para que nesta nova perspectiva gerada seja possível relacionar a distância percorrida pelos veículos nesta nova janela em perspectiva (distância em pixels) com a distância percorrida no mundo real (distância em metros) possibilitando o cálculo de velocidade. Tanto as coordenadas dos quatro pontos da ROI como o valor da relação “distância mundo real / distância na janela em perspectiva” [metros / pixels] devem ser inseridas pelo usuário dentro do código fonte em Python. É importante salientar que todas as próximas etapas do sistema acontecem somente na ROI, o que melhora o desempenho do programa como um todo, uma vez, que todas as técnicas utilizadas daqui por diante acontecem em uma região restrita e menor do que o frame todo disponível.

Etapa 1.2. TRANSFORMAÇÃO DE PERSPECTIVA

Uma vez delimitada a ROI, o programa realiza a transformação de perspectiva, Figura 32, onde os pixels dentro da ROI são mapeados para um quadrado com dimensões de 300x300 pixels.

Figura 32: Criação da Janela em Perspectiva a partir da ROI (retângulo em vermelho).

Etapa 1.3. REMOÇÃO DE FUNDO

Após a geração da perspectiva, inicia-se a etapa de remoção do fundo (background) e a detecção e separação dos veículos presentes no vídeo. Com a utilização do algoritmo MOG2 e de uma função

threshold que aplica uma limiarização binaria para que os pixels assumam valores brancos ou pretos é

possível segmentar, quase que sem ruído, as regiões dos veículos, das regiões de fundo da imagem. Esse processo de limiarização ocorre transformando os pixels com valores menores que o limite para preto, “0” e os demais são convertidos para branco, “255” A Figura 32 elucida o resultado obtido dessa etapa de remoção de fundo.

Figura 33: Frames resultantes da etapa de remoção de fundo.

O valor limite adotado para a função threshold foi de 60. Fonte: Adaptado de MARCOMINI (2018).

Etapa 1.4. DETECÇÃO DA FEATURES E RASTREAMENTO DOS VEÍCULOS

Tendo as regiões dos veículos (objetos em movimento) devidamente separados, a etapa de rastreamento (tracking) é iniciada. Os métodos utilizados nesta etapa foram: algoritmo de Shi-Tomasi para detectar as features (pontos interessantes a serem analisados) e algoritmo Lucas-Kanade que avalia e reconhece as features dos veículos em frames consecutivos permitindo que uma associação temporal seja realizada para um mesmo veículo durante todo o seu percurso.

Etapa 1.5. RASTREAMENTO E AGRUPAMENTO DOS VEÍCULOS

A etapa de rastreamento é dividida em três momentos, como mostrado pela Figura 34: (i) fase do movimento do veículo dentro da janela de perspectiva na qual ocorre a detecção de features, definida aproximadamente por 33,3% da ROI (100 pixels); (ii) fase do movimento do veículo dentro da janela de perspectiva na qual ocorre o rastreamento em si e região na qual a associação temporal acontece, definida aproximadamente por 61,6% da ROI (185 pixels) e (iii) fase do movimento do veículo dentro da janela

de perspectiva na qual é representada uma linha de final de percurso dos veículos, uma espécie de “Linha de Chegada” (LC), sendo que a definição dessa última área é de aproximadamente 5% da ROI (15 pixels).

Figura 34: Subdivisão da ROI. (I) Detecção, (II) Rastreamento e (III) Salvamento.

Fonte: Adaptado de MARCOMINI (2018).

Documentos relacionados