• Nenhum resultado encontrado

RELATIVA ENTRE AS CÂMERAS

N/A
N/A
Protected

Academic year: 2021

Share "RELATIVA ENTRE AS CÂMERAS"

Copied!
6
0
0

Texto

(1)

SISTEMA DE VIS ˜AO EST ´EREO H´IBRIDO COM RECUPERA ¸C ˜AO DA POSI ¸C ˜AO RELATIVA ENTRE AS C ˆAMERAS

Igor Magri Vale∗, Julio Storch Dalfior∗, Raquel Frizera Vassallo∗

Dpto. de Engenharia El´etrica, Universidade Federal do Esp´ırito Santo

Av. Fernando Ferrari 514 Vit´oria, ES, Brasil

Emails: igormagrivale@gmail.com, juliostorch@gmail.com, raquel@ele.ufes.br

Abstract— This paper proposes the usage of a hybrid stereo vision system formed by an omnidirectional camera and a perspective camera for recovering the 3D coordinates of points seen in the field view of both cameras. The relative position between the cameras is estimated by using just a pair of images captured when both cameras point at the same scene. The results of this work suggest that the proposed method can be used in a reconfigurable hybrid stereo vision system since the relative position between cameras can be estimated allowing 3D reconstruction any time is needed.

Keywords— Computer Vision, Hybrid Stereo Vision System, 3D Reconstruction, Omnidirectional Vision Resumo— Este artigo prop˜oe a utiliza¸c˜ao de um sistema de vis˜ao est´ereo h´ıbrido, composto por uma cˆamera omnidirecional e uma cˆamera perspectiva, para reconstruir as coordenadas 3D de pontos vistos por essas cˆameras. A posi¸c˜ao relativa entre as cˆameras ´e recuperada usando-se apenas um par de imagens e os resultados obtidos s˜ao promissores. Isto sugere que o m´etodo proposto pode ser usado em um sistema de vis˜ao est´ereo reconfigur´avel, pois sempre que necess´ario ´e poss´ıvel recuperar a posi¸c˜ao relativa entre as cˆameras e realizar a reconstru¸c˜ao 3D. Palavras-chave— Sistema de Vis˜ao Est´ereo H´ıbrido, Reconstru¸c˜ao 3D, Vis˜ao Omnidirecional.

1 Introdu¸c˜ao

Normalmente o controle de robˆos m´oveis depende da incorpora¸c˜ao de sensores externos, somada ao uso de algoritmos avan¸cados de controle. Dos v´ a-rios sensores utilizados na rob´otica, os sistemas de vis˜ao est˜ao entre aqueles capazes de fornecer as informa¸c˜oes mais completas sobre os ambientes de trabalho. Por isso s˜ao comumente utilizados mesmo sendo considerados bastante complexos.

Cˆameras adquirem imagens em 2D, mas em algumas situa¸c˜oes existe a necessidade de se re-cuperar a informa¸c˜ao 3D dos objetos de interesse. Nesse sentido existem os sistemas de vis˜ao est´ e-reo. Por´em, para obter informa¸c˜ao tridimensional, deve-se conhecer previamente a posi¸c˜ao relativa das cˆameras que comp˜oem o sistema de vis˜ao es-t´ereo, o que, sem uma t´ecnica para recuperar essa posi¸c˜ao automaticamente, tornaria o uso desse sis-tema limitado a aplica¸c˜oes est´aticas.

Com base no cen´ario exposto, esse artigo pro-p˜oe o uso de um sistema de vis˜ao est´ereo h´ıbrido, composto de uma cˆamera omnidirecional e uma cˆamera perspectiva para realizar a reconstru¸c˜ao tridimensional de pontos espec´ıficos das imagens. A id´eia de se utilizar um sistema de vis˜ao est´ereo h´ıbrido se baseia na possibilidade de se desenvol-ver aplica¸c˜oes e tarefas em que se pode aprovei-tar as vantagens de cada uma das cˆameras, ou seja, o grande campo visual da omnidirecional e a boa resolu¸c˜ao da perspectiva. Considerando que cada cˆamera pode estar acoplada a um robˆo m´ovel ao inv´es de uma estrutura est´atica, nesse projeto foi desenvolvida uma metodologia de recupera¸c˜ao da posi¸c˜ao relativa entre as cˆameras utilizando-se

apenas um par de imagens de uma mesma cena vista pelas duas.

Algumas abordagens parecidas s˜ao vistas em (Voigtl¨ander et al., 2007) e (Zhu et al., 2000). Em (Voigtl¨ander et al., 2007) um sistema omnidireci-onal e uma cˆamera perspectiva s˜ao usados conjun-tamente para detectar a bola durante um jogo de futebol de robˆos. Entretanto, este sistema est´ereo ´e fixo e montado em um ´unico robˆo n˜ao permi-tindo sua reconfigura¸c˜ao ou utiliza¸c˜ao individual por diferentes robˆos. Em (Zhu et al., 2000) dois robˆos, equipados com cˆameras PAL, formam um sistema est´ereo m´ovel com o objetivo de rastrear seres humanos. A diferen¸ca est´a no fato do sis-tema est´ereo n˜ao ser do tipo h´ıbrido, utilizando dois sistemas omnidirecionais.

O sistema de vis˜ao est´ereo deste trabalho ´e o mesmo que o de (Roberti et al., 2008) e (Roberti et al., 2009). Contudo em (Roberti et al., 2008), a posi¸c˜ao das cˆameras era fornecida e, em (Roberti et al., 2009), existe um processo extra no qual o robˆo com o sistema omnidirecional deve buscar e estimar a posi¸c˜ao do outro robˆo, e consequen-temente da outra cˆamera, antes de realizar a re-constru¸c˜ao tridimensional. Diferentemente, neste trabalho, a posi¸c˜ao relativa entre as cˆameras ´e esti-mado diretamente das imagens sem a necessidade de nenhum processamento adicional.

O algoritmo de recupera¸c˜ao da posi¸c˜ao rela-tiva segue a proposta de (Ma et al., 2003), na qual s˜ao escolhidos pelo menos oito pontos correspon-dentes, entre duas imagens perspectivas, para esti-mar a rota¸c˜ao e transla¸c˜ao entre as cˆameras. Po-r´em, como no sistema de vis˜ao est´ereo uma das imagens ´e omnidirecional, foi utilizado e

(2)

aprimo-rado o processo apresentado em (Junior, 2002) para retificar essa imagem, gerando uma imagem perspectiva virtual livre de distor¸c˜oes. Vale tam-b´em mencionar que a transla¸c˜ao recuperada pela proposta de (Ma et al., 2003) ainda necessita de um fator de escala, que n˜ao ´e poss´ıvel recupe-rar apenas com a metodologia apresentada e, por-tanto, torna-se necess´ario realizar uma estimativa. Na Se¸c˜ao 2, s˜ao apresentadas as caracter´ıs-ticas dos sistemas de vis˜ao utilizados para com-por o sistema de vis˜ao est´ereo h´ıbrido, ou seja, os sistemas de vis˜ao perspectiva e omnidirecional, e o processo de retifica¸c˜ao para gera¸c˜ao de ima-gem perspectiva a partir de uma omnidirecional. O sistema de vis˜ao est´ereo h´ıbrido e o processo de recupera¸c˜ao da posi¸c˜ao relativa entre as cˆ ame-ras s˜ao discutidos na Se¸c˜ao 3. Na Se¸c˜ao 4, s˜ao apresentados os resultados experimentais obtidos e, finalmente, na Se¸c˜ao 5, est˜ao as conclus˜oes e os trabalhos futuros sugeridos.

2 Os Dois Sistemas de Vis˜ao

O sistema de vis˜ao est´ereo utilizado nesse trabalho ´e uma combina¸c˜ao de outros dois sistemas de vi-s˜ao: perspectiva e omnidirecional, cujos modelos de representa¸c˜ao ser˜ao descritos a seguir.

2.1 Vis˜ao perspectiva

Conforme descrito em (Ma et al., 2003), um ponto P = [X, Y, Z]T ter´a como imagem o ponto p0 = [u, v]T, e ambos estar˜ao relacionados pela Equa¸c˜ao 1, que representa a proje¸c˜ao perspectiva.

 u v  = f Z  X Y  (1)

Na proje¸c˜ao perspectiva dada pela Equa¸c˜ao 1, os pontos no espa¸co 3D est˜ao no mesmo referencial da cˆamera. Al´em disso, a proje¸c˜ao obtida est´a em pixels e, portanto, a distˆancia focal f tamb´em deve estar em pixels.

2.2 Vis˜ao omnidirecional

O sistema de vis˜ao omnidirecional utilizado nesse trabalho ´e um sistema catadi´optrico. Tipica-mente, este tipo de sistema de vis˜ao consiste em utilizar um espelho convexo fixo em frente `a uma cˆamera que tamb´em permanece fixa. Algumas for-mas de espelho associadas a determinados tipos de lente fazem com que o sistema de vis˜ao resul-tante tenha um centro ´unico de proje¸c˜ao, o que permite a obten¸c˜ao de imagens perspectivas livres de distor¸c˜oes a partir da imagem omnidirecional (Baker and Nayar, 1999). As imagens perspecti-vas assim obtidas s˜ao equivalentes a imagens ad-quiridas por uma cˆamera perspectiva com o foco localizado no centro ´unico de proje¸c˜ao do sistema (Junior, 2002).

Nesse trabalho escolheu-se utilizar um sistema omnidirecional formado por um espelho hiperb´ o-lico fixo em frente `a cˆamera perspectiva. O es-pelho hiperb´olico possui a propriedade do centro ´

unico de proje¸c˜ao e pode ser definido pelo sistema de coordenadas centrado no ponto focal F0, como mostrado na Figura 1, pela Equa¸c˜ao 2.

y = s a2  1 +x 2 b2  −pa2+ b2 (2)

Figura 1: Geometria do espelho e da cˆamera (Ju-nior, 2002).

Na Equa¸c˜ao 2, a e b s˜ao parˆametros da hip´ er-bole, sendo sua excentricidade e =√a2+ b2. Na

Figura 1, h ´e a distˆancia entre a borda do espelho e centro de proje¸c˜ao da cˆamera, e rtopo o valor de

x quando y = ytopo, com ytopo = h − 2e que ´e a

coordenada y do topo do espelho.

2.3 Retifica¸c˜ao da imagem omnidirecional para gera¸c˜ao de imagem perspectiva

O espelho hiperb´olico possui a propriedade do cen-tro ´unico de proje¸c˜ao. Portanto, pode-se definir um plano de proje¸c˜ao perpendicular a qualquer reta que passe pelo foco da hip´erbole e mapear os pixels da imagem omnidirecional adquirida. Con-forme explicado em (Junior, 2002), para definir esse plano de proje¸c˜ao da cˆamera perspectiva vir-tual s˜ao necess´arios estabelecer trˆes parˆametros, fp, θ0 e φ0, que podem ser vistos na Figura 2. O

parˆametro fprepresenta a distˆancia, em pixels, do

centro de proje¸c˜ao F0ao plano definido, enquanto que θ0 e φ0 s˜ao os ˆangulos de dire¸c˜ao azimutal e

de eleva¸c˜ao do plano, respectivamente.

Ap´os a defini¸c˜ao do plano, para gerar uma imagem perspectiva ´e necess´ario encontrar para cada pixel (up, vp) desta imagem, a dire¸c˜ao (φ, θ)

de um raio que passa pelo foco da hip´erbole e pelo pixel (up, vp). Isso pode ser feito por meio de

(3)

Figura 2: Plano de proje¸c˜ao da cˆamera perspec-tiva virtual (Junior, 2002).

tan φ = fpsin φ0+ vpcos φ0 fpcos φ0− vpsin φ0

(3) tan θ =(fpcos φ0− vpsin φ0) sin θ0− upcos θ0

(fpcos φ0− vpsin φ0) cos θ0+ upsin θ0 (4)

A Equa¸c˜ao 3 apresenta uma corre¸c˜ao na re-la¸c˜ao para tan φ proposta por (Junior, 2002), que n˜ao continha o termo −vpsin φ0no denominador.

Para o determinado raio (φ, θ), deve-se encon-trar o ponto (x, y) na superf´ıcie do espelho onde o raio ´e refletido. Isto pode ser feito resolvendo-se a Equa¸c˜ao 2 para y = tan φ. Por fim, para o ponto (x, y) encontrado, o pixel (u, v) na ima-gem omnidirecional que corresponde ao raio de luz definido pelos ˆangulos de dire¸c˜ao (φ, θ) pode ser encontrado usando as Equa¸c˜oes 5 e 6, em que α = rrptopo

topo e rptopo ´e a medida em pixel de rtopo

visto na imagem omnidirecional gerada (maiores detalhes deste processo em (Junior, 2002)).

u =x (2e + ytopo) α

(x· tan φ + 2e) cos θ (5)

v =x (2e + ytopo) α

(x· tan φ + 2e) sin θ (6)

3 Vis˜ao Est´ereo

O sistema de vis˜ao est´ereo utilizado nesse tra-balho segue o modelo apresentado por (Roberti et al., 2008) e (Roberti et al., 2009), que ´e com-posto por duas cˆameras, uma perspectiva e outra, que em conjunto com o espelho hiperb´olico, ad-quire uma imagem omnidirecional. A Figura 3 exibe o esquema do sistema, assim como os refe-renciais adotados em cada uma das cˆameras.

Na Figura 3, P = [X, Y, Z]T ´e um ponto visto

pelas duas cˆameras, p0p= [up, vp]T e p0o= [uo, vo]T

a proje¸c˜ao do ponto P em nas imagens perspectiva e omnidirecional, Op e Oo s˜ao os centros de cada

imagem, com fpe foos seus focos das cˆameras (em

pixel ), e o ponto Pm= [Xm, Ym, Zm]T ´e o ponto

Figura 3: Sistema de vis˜ao est´ereo h´ıbrido e os referenciais das cˆameras.

em que o raio incidente do ponto P , em dire¸c˜ao ao centro ´unico de proje¸c˜ao, cruza a superf´ıcie do espelho hiperb´olico. O centro ´unico de proje¸c˜ao se encontra no ponto F0 = [0, 0, 2e]T no referencial

da cˆamera omnidirecional.

O ponto P pode ser escrito no referencial da cˆamera perspectiva e da cˆamera omnidirecional, respectivamente, como Pp= [Xp, Yp, Zp]T e Po=

[Xo, Yo, Zo]T. Conhecendo-se a posi¸c˜ao relativa

entre essas cˆameras, pode-se escrever a Equa¸c˜ao 7, que ´e uma transforma¸c˜ao de corpo-r´ıgido que relaciona o ponto P visto por elas.

Pp= RPo+ T , R =   r11 r12 r13 r21 r22 r23 r31 r32 r33   e T=   t1 t2 t3   (7) Partindo da Equa¸c˜ao 7 e considerando as re-la¸c˜oes de proje¸c˜ao para as cˆameras perspectiva e omnidirecional, encontra-se um sistema de linear composto pelas Equa¸c˜oes 8, 9 e 10, com o qual ´e poss´ıvel determinar as profundidades Zo e Zp do

ponto P no referencial das duas cˆameras, al´em do fator γ que engloba caracter´ısticas construtivas do sistema omnidirecional. [r11uo+ r12vo] γ + r13Zo− up fp Zp= −t1 (8) [r21uo+ r22vo] γ + r23Zo− vp fp Zp= −t2 (9) [r31uo+ r32vo] γ + r33Zo− Zp= −t3 (10)

Para encontrar as demais coordenadas, basta utilizar as Equa¸c˜oes 11 e 12, e o fator γ obtido junto com as profundidades.

Xo= γ· uo e Yo= γ· vo (11) Xp= Zp fp · up e Yp= Zp fp · vp (12)

3.1 Algoritmo de recupera¸c˜ao da posi¸c˜ao relativa entre as cˆameras

Como mencionado anteriormente, para recons-truir as profundidades deve-se conhecer a posi¸c˜ao

(4)

relativa entre as cˆameras. Em (Ma et al., 2003), para encontrar a posi¸c˜ao relativa entre duas cˆ ame-ras perspectivas, deve-se escolher pelo menos oito pontos correspondentes nas imagens de cada uma das cˆameras. Nesse trabalho foi usada a mesma id´eia. Contudo, por n˜ao se ter duas imagens em perspectiva, foi necess´ario retificar uma imagem omnidirecional para obter outra imagem perspec-tiva, como se fosse obtida por uma cˆamera virtual. Para um ponto P visto por duas cˆameras pers-pectivas, as proje¸c˜oes desse ponto (p1 e p2) no

plano da imagem das cˆameras devem satisfazer a restri¸c˜ao epipolar, dada pela Equa¸c˜ao 13, em que E ´e a matriz Essencial.

p2TEp1= 0, E ∈ R3×3 (13)

Com um conjunto de oito pontos correspon-dente ou mais, pode-se aplicar a restri¸c˜ao epipolar para cada um deles e obter um n´umero suficiente de equa¸c˜oes para recuperar os elementos da matriz E. O ideal seria encontrar E = U diag{σ, σ, 0}VT, mas, na realidade, a decomposi¸c˜ao em valor singu-lar (SVD) da matriz E ´e encontrada como sendo E = U diag{σ1, σ2, σ3}VT , com σ16= σ2e σ36= 0.

Contudo, a proje¸c˜ao no espa¸co essencial pode ser obtida pela Equa¸c˜ao 14.

E = U ΣVT, em que Σ = diag{1, 1, 0} (14)

´

E importante mencionar que essa proje¸c˜ao no espa¸co essencial implica em recuperar uma matriz de transla¸c˜ao com norma unit´aria. Dessa forma, o valor de T recuperado dever ser multiplicado por um fator de escala λ para obter a transla¸c˜ao real. Em (Ma et al., 2003), ´e mostrado que a ma-triz essencial encontrada pode ser decomposta em quatro pares de rota¸c˜oes R e transla¸c˜oes T . As Equa¸c˜oes 15-18 exibem essas poss´ıveis solu¸c˜oes, sendo que Rz(θ) denota uma rota¸c˜ao em z de um

ˆ

angulo θ, e ˆT ´e a matriz anti-sim´etrica relativa a T . Apesar das quatro solu¸c˜oes, apenas uma delas garante que, em ambas as cˆameras, todas as pro-fundidades encontradas para os pontos 3D sejam positivas. Essa ser´a a solu¸c˜ao que representa a po-si¸c˜ao relativa entre a cˆamera perspectiva real e a virtual, obtida a partir do sistema omnidirecional.

R = U Rz( π 2) T VT e ˆT = U Rz( π 2)ΣU T (15) R = U Rz( π 2) T VT e ˆT = U Rz(− π 2)ΣU T (16) R = U Rz( −π 2 ) T VT e ˆT = U Rz(− π 2)ΣU T (17) R = U Rz( −π 2 ) T VT e ˆT = U Rz( π 2)ΣU T (18)

3.1.1 Posi¸c˜ao relativa final

Obtida a posi¸c˜ao entre as cˆameras perspectivas real e virtual, falta agora encontrar a posi¸c˜ao

re-lativa entre as cˆameras do sistema de vis˜ao est´ereo, ou seja, entre a cˆamera perspectiva real e a omni-direcional. Para isso, ser´a necess´ario encontrar as matrizes de rota¸c˜ao e transla¸c˜ao que representem tal rela¸c˜ao. Assim, seja um ponto P visto pelas cˆameras perspectiva e omnidirecional relacionados pela equa¸c˜ao 19, sendo Ppe Poo ponto nos

respec-tivos referenciais. As matrizes R e T representam a posi¸c˜ao relativa que deve ser recuperada.

Pp= R Po+ T (19)

Se Pv ´e o ponto P visto pela cˆamera virtual,

ele pode ser relacionado com a cˆamera perspectiva real pela Equa¸c˜ao 20. Nessa equa¸c˜ao, R0 e T0

s˜ao as matrizes de rota¸c˜ao e transla¸c˜ao obtidas pelo algoritmo de recupera¸c˜ao da posi¸c˜ao entre as cˆameras perspectivas real e virtual.

Pp= R0Pv+ λT0 (20)

Por outro lado, as cˆameras omnidirecional e virtual est˜ao relacionadas pela Equa¸c˜ao 21. As matrizes Rov e Tov s˜ao a rota¸c˜ao e transla¸c˜ao

en-tre o referencial da cˆamera omnidirecional e o re-ferencial da cˆamera perspectiva virtual.

Po= RovPv+ Tov (21)

Das Figuras 2 e 3 nota-se que Rov´e o produto

de uma rota¸c˜ao de 90oem x, seguida de uma

rota-¸

c˜ao de φ0em z, e uma rota¸c˜ao em y de 90o mais

o ˆangulo θ0 escolhido. Al´em disso, a transla¸c˜ao

Tov ´e simplesmente um deslocamento de 2e em z.

Assim, a rela¸c˜ao entre as cˆameras omnidirecional e virtual pode escrita como na Equa¸c˜ao 22.

Po= Rx π 2  Rz(φ0) Ry π 2+ θ0  Pv+   0 0 2e   (22) Substituindo a Equa¸c˜ao 22 na Equa¸c˜ao 19, obt´em-se outra forma de relacionar os pontos en-tre as cˆameras perspectivas real e virtual, que est´a na Equa¸c˜ao 23. Comparando esta equa¸c˜ao com a Equa¸c˜ao 20, pode-se relacionar R0 e T0 com as

matrizes de rota¸c˜ao R e transla¸c˜ao T , que devem ser recuperadas. O relacionamento entre essas ma-trizes est´a nas Equa¸c˜oes 24 e 25.

Pp= R Rx π 2  Rz(φ0) Ry π 2 + θ0  Pv+ R   0 0 2e   + T (23) R0= R Rx π 2  Rz(φ0) Ry π 2 + θ0  (24) λT0= R   0 0 2e  + T (25)

(5)

Enfim, conhecendo-se R0 e T0, basta utilizar

as Equa¸c˜oes 26 e 27 para obter a posi¸c˜ao relativa entre as cˆameras omnidirecional e perspectiva.

R = R0 Ry  −π 2− θ0  Rz(−φ0) Rx −π 2  (26) T = λT0− R   0 0 2e   (27) 4 Resultados Experimentais

A fim de validar o modelo de reconstru¸c˜ao das pro-fundidades, assim como a recupera¸c˜ao autom´atica das posi¸c˜oes relativas das cˆameras, tal sistema foi montado conforme a Figura 4.

Figura 4: Esquem´atico do sistema de vis˜ao est´ereo utilizado para o experimento.

Vale mencionar que, para a realiza¸c˜ao do ex-perimento, foi extra´ıdo um conjunto de pares de imagens perspectiva e omnidirecional, nas quais o objeto de interesse ´e uma caixa, cuja posi¸c˜ao em rela¸c˜ao `a cˆamera perspectiva foi anotada para posterior an´alise. Os pontos correspondentes eram escolhidos manualmente, clicando-se diretamente nas imagens. As imagens utilizadas foram as mes-mas usadas no trabalho (Roberti et al., 2008) para efeito de compara¸c˜ao.

4.1 Recupera¸c˜ao da posi¸c˜ao relativa entre as cˆ a-meras perspectivas real e virtual

O algoritmo de recupera¸c˜ao retorna a posi-¸

c˜ao relativa entre as cˆameras perspectiva real e virtual, conforme a Equa¸c˜ao 20. Defi-nindo a matrizerro como sendo: matrizerro =

|matrizreal − matrizexp|, as matrizes R0erro e

T0erro se encontram nas Equa¸c˜oes 28 e 29 para

os erros referentes `a R0 e T0. R0erro=   0.0392 0.0315 0.0733 0.0138 0.0055 0.0342 0.0654 0.0371 0.0421   (28) T0erro =   0.0038 0.0126 0.0165   (29)

Pelas matrizes de erro obtidas, pode-se ob-servar que os valores experimentais e reais est˜ao

bem pr´oximos e coerentes, o que indica que a po-si¸c˜ao entre as cˆameras perspectivas real e virtual foi recuperada com sucesso. Os pequenos desvios podem ser devidos `a pequena resolu¸c˜ao da ima-gem perspectiva virtual, uma vez que foi gerada de uma imagem omnidirecional, cuja caracter´ıs-tica ´e possuir uma menor resolu¸c˜ao pois concen-tra maior quantidade de informa¸c˜ao por pixel em rela¸c˜ao `a uma imagem perspectiva.

4.2 Recupera¸c˜ao posi¸c˜ao relativa entre as cˆ ame-ras perspectiva e omnidirecional

Obtida a posi¸c˜ao das cˆameras perspectivas real e virtual, pode-se recuperar a posi¸c˜ao das cˆameras do sistema de vis˜ao est´ereo. Para encontrar os valores de Rexpe Texp, basta aplicar as Equa¸c˜oes

24 e 25 aos valores de R0expT0exp. Contudo, ainda

n˜ao foi mencionado qual o valor de λ adotado. Conforme explicado na Se¸c˜ao 3.1, projetar a matriz essencial no espa¸co das matrizes essenciais implica em recuperar uma transla¸c˜ao de norma unit´aria. Bastaria apenas ent˜ao multiplic´a-la por um fator de escala adequado, mas n˜ao foi encon-trado um trabalho que explique a melhor forma de determinar esse fator. Para fins experimentais, decidiu-se seguir uma l´ogica apresentada em (Ma et al., 2003). Ao realizar o caminho inverso, ou seja, tendo-se a rota¸c˜ao e a transla¸c˜ao entre duas cˆameras, quando decomposta em valor singular, a matriz essencial obtida pelo produto ˆT R apre-senta uma matriz S de valores singulares com dois termos n˜ao nulos iguais `a ||T ||.

Experimentalmente, os dois termos n˜ao nulos da matriz S obtida n˜ao eram iguais, mas de valo-res num´ericos pr´oximos, o que representa um des-vio do valor ideal devido a ru´ıdos e imprecis˜oes no processo experimental. Portanto, decidiu-se ado-tar a m´edia geom´etrica entre eles como o valor de λ e as matrizes Rerro e Terro referentes `a posi¸c˜ao

relativa das cˆameras perspectiva e omnidirecional s˜ao as apresentadas nas Equa¸c˜oes 30 e 31.

Rerro=   0 0.0800 0.0300 0.0300 0.0200 0 0.0800 0 0.0200   (30) Terro=   16 1 6   (31)

Como pode ser notado, a matriz de rota¸c˜ao para a posi¸c˜ao relativa entre as cˆameras do sistema de vis˜ao est´ereo ´e obtida com qualidade, visto que os erros por elemento da matriz s˜ao muito peque-nos, ou at´e nulos em alguns casos. Por´em, tam-b´em pode ser observado que n˜ao foi encontrada uma transla¸c˜ao com qualidade. Isso se deve prin-cipalmente ao fator de escala λ, que teve que ser estimado, aumentando a imprecis˜ao nos resulta-dos. A melhora desta estimativa ´e um dos princi-pais focos de trabalhos futuros.

(6)

4.3 Reconstru¸c˜ao das coordenadas 3D

Posteriormente `a recupera¸c˜ao da posi¸c˜ao relativa das cˆameras, realizou-se a reconstru¸c˜ao das coor-denadas 3D de um objeto de interesse em 12 pares de imagens. Nestas imagens, as posi¸c˜oes das cˆ a-meras foram mantidas constantes e apenas o ob-jeto de interesse variou de localiza¸c˜ao. Como po-si¸c˜ao relativa entre as cˆameras, utilizou-se a que foi recuperada experimentalmente.

Os resultados em rela¸c˜ao ao referencial da cˆ a-mera perspectiva se encontram na Figura 5, onde se pode observar a posi¸c˜ao real do ponto de in-teresse assinalada por um “X” e, por um c´ırculo, a posi¸c˜ao encontrada pelo sistema de vis˜ao est´ e-reo. Nota-se uma boa precis˜ao na determina¸c˜ao das coordenadas, principalmente para pontos mais pr´oximos da cˆamera.

Figura 5: Comparativo entre as reais posi¸c˜oes e as obtidas experimentalmente, expressas no refe-rencial da cˆamera perspectiva.

5 Considera¸c˜oes Finais

Nesse trabalho, utilizou-se um sistema de vis˜ao es-t´ereo h´ıbrido, composto de uma cˆamera omnidire-cional e uma cˆamera perspectiva, para reconstruir as coordenadas 3D de um ponto visto pelas duas cˆameras. O arranjo com as duas cˆameras permite combinar as qualidades de cada uma, o grande campo visual da omnidirecional e a boa resolu¸c˜ao da perspectiva. Para reconstruir coordenadas 3D ´e preciso saber a posi¸c˜ao relativa entre as cˆameras. Nesse sentido, a grande contribui¸c˜ao desse traba-lho ´e a recupera¸c˜ao da posi¸c˜ao relativa entre as cˆameras do sistema de vis˜ao est´ereo h´ıbrido, utili-zando apenas um par de imagens capturado pelas duas cˆameras.

Os resultados obtidos mostram que a rota¸c˜ao que relaciona essas cˆameras foi recuperada com sucesso, visto que os erros calculados foram pr´ oxi-mos de zero. Por outro lado, a estimativa do fator de escala da transla¸c˜ao n˜ao forneceu um resultado para o vetor de transla¸c˜ao com tanta qualidade. Apesar disso, os resultados descritos sugerem que uma pesquisa na forma de recuperar esse fator de

escala pode ser um trabalho futuro com resultado promissor.

Com a posi¸c˜ao relativa entre as cˆameras recu-perada, o sistema foi testado para a reconstru¸c˜ao 3D de pontos vistos nas duas imagens. Apesar da dificuldade devido `a transla¸c˜ao n˜ao ter sido recuperada com qualidade, os resultados obtidos foram satisfat´orios. Enfim, o sistema de vis˜ao es-t´ereo, com a posi¸c˜ao relativa recuperada pelo algo-ritmo proposto nesse trabalho, foi capaz de recons-truir as coordenadas 3D de pontos vistos simul-taneamente pelas cˆameras omnidirecional e pers-pectiva. Dessa forma, pode-se pensar em acoplar cada uma das cˆameras em robˆos m´oveis distintos e assim obter um sistema de vis˜ao est´ereo recon-figur´avel. Este sistema poder´a ent˜ao ser usado em uma tarefa cooperativa onde as propriedades de cada cˆamera ser´a explorada separadamente ou conjuntamente. Por exemplo, o campo visual am-pliado da cˆamera omnidirecional ´e bastante con-veniente para navega¸c˜ao enquanto a boa resolu¸c˜ao da perspectiva facilita a detec¸c˜ao de detalhes do ambiente de trabalho, mas ainda assim as duas cˆ a-meras poder˜ao ser utilizadas para a reconstru¸c˜ao 3D de objetos de interesse sempre que necess´ario.

Referˆencias

Baker, S. and Nayar, S. K. (1999). A theory of single-viewpoint catadioptric image for-mation, Int. Journal of Computer Vision 35(2): 1–22.

Junior, V. G. (2002). Sistema de vis˜ao omnidire-cional aplicado no controle de robˆos m´oveis, Master’s thesis, Escola Polit´ecnica da Univer-sidade de S˜ao Paulo.

Ma, Y., Soatto, S., Kosecka, J. and Sastry, S. S. (2003). An Invitation to 3-D Vi-sion: From Imagens to Geometric Models, Springer-Verlag, LLC, New York.

Roberti, F., Toibero, J., Soria, C., Vassallo, R. F. and Carelli, R. (2009). Hybrid collaborative stereo vision system for mobile robots forma-tion navigaforma-tion, Internaforma-tional Symposium on Robotics - ISR2009 .

Roberti, F., Vassallo, R. F., Toibero, J. M. and Carelli, R. (2008). 3D position sensing with a hybrid stereo vision system, CBA2008 . Voigtl¨ander, A., Lange, S., Lauer, M. and

Ried-miller, M. (2007). Real-time 3d ball recogni-tion using perspective and catadioptric came-ras, European Conference on Mobile Robots . Zhu, Z., Rajasekar, K. D., Riseman, E. M. and Hanson, A. R. (2000). Panoramic virtual ste-reo vision of cooperative mobile robots for lo-calizing 3d moving objects, IEEE Workshop on Omnidirectional Vision pp. 29–36.

Referências

Documentos relacionados

• Journals: IEEE Transactions on Image Processing, IEEE Transactions on Biomed- ical Engineering, Artificial Intelligence in Medicine (Elsevier), EURASIP Jour- nal on Advances in

– Large number of training samples for a related task – Low-level features could be common to both tasks.

"Deep residual learning for image recognition." In Proceedings of the IEEE conference on computer vision and pattern recognition,

• f is the focal length of the lens – determines the lens’s ability to refract light

– (supervised learning): we have access to a set of training data for which we know the correct class/answer.. • What if test data is different from training

A good fit between the current deformable contour and the target shape in the image will yield a low value for this cost

• Passes a weighted sum of inputs, to an activation function, which produces an output value.. Sample

– based on the structural interrelationships of features.. Topic: Statistical Pattern Recognition. • Introduction to