• Nenhum resultado encontrado

3.6

Conclus˜ao

A estrat´egia do tipo ver-e-mover ´e altamente dependente da precis˜ao do sistema de vis˜ao, da calibra¸c˜ao da cˆamera, dos encoders utilizados e do conhecimento do modelo cinem´atico do sistema e possui apenas interesse hist´orico atualmente.

O controle baseado na posi¸c˜ao possui a vantagem das tarefas serem descritas no espa¸co cartesiano, como ´e comum em rob´otica, al´em de desacoplar as tarefas de estima¸c˜ao da posi¸c˜ao do controle da trajet´oria. Entretanto, perde-se o controle sobre a imagem obser- vada, de modo que n˜ao h´a garantias que o objeto permane¸ca sempre no campo de vis˜ao durante a execu¸c˜ao da tarefa, especialmente quando h´a erros de calibra¸c˜ao significativos. A recupera¸c˜ao da postura absoluta do robˆo tamb´em ´e um processo delicado e diversas t´ecnicas foram desenvolvidas para aumentar a precis˜ao ou flexibilidade do c´alculo.

Finalmente, a estrat´egia de controle no espa¸co dos sensores, que no caso de uma cˆamera ´e o pr´oprio plano imagem, oferece uma alternativa interessante para uma grande classe de problemas. O conceito de matriz de intera¸c˜ao tras a vis˜ao rob´otica ao campo da teoria de controle, oferecendo solu¸c˜oes matem´aticas elegantes, especialmente quando a posi¸c˜ao final do robˆo est´a relacionada a uma imagem de referˆencia definida por primitivas geom´etricas.

Cap´ıtulo 4

Vis˜ao Rob´otica

Essencialmente, a vis˜ao computacional trata do estudo das propriedades geom´etricas ou dinˆamicas do mundo real atrav´es de uma ou mais imagens. Ela distingue-se da ´area conhecida como processamento digital de imagens, cujo objetivo ´e realizar transforma¸c˜oes entre imagens.

CCD Lentes

Fonte de Luz

Visao Computacional Imagem Processamento Digital

Figura 4.1: Etapas da vis˜ao computacional.

Um estudo detalhado da solu¸c˜ao de um problema de vis˜ao consiste no conhecimento de suas diversas etapas. A Fig. 4.1 descreve seus principais processos. A radiometria estuda a rela¸c˜ao existente entre a quantidade de energia luminosa radiante (recebida) e a energia irradiada (emitida) por um corpo, numa dada dire¸c˜ao. O principal modelo de reflectˆancia de uma superf´ıcie, ´e conhecido como modelo Lambertiano:

L = ρITn (4.1)

onde, L ´e a luz irradiada, I a luz radiada, n a normal `a superf´ıcie e ρ ´e denominado albedo, e depende da superf´ıcie.

4.1. Modelo Detalhado de Cˆamera 49

A energia luminosa emitida pelos v´arios objetos tridimensionais presentes em uma cena atravessa o conjunto ´optico de lentes, formando uma imagem bidimensional. O modelo de pinhole representa uma simplifica¸c˜ao do comportamento f´ısico real e, embora seja adequado para uma grande variedade de aplica¸c˜oes, n˜ao modela com perfei¸c˜ao as reflex˜oes sofridas pela luz a atravessar as lentes.

A imagem formada na tela da cˆamera estimula uma matriz de sensores foto-sens´ıveis (CCD), respons´aveis por quantizar espacialmente a imagem, que ´e transformada em um pulso de sinais el´etricos. Este sinal ´e novamente quantizado e amostradado por uma placa de captura (framegrabber ) transformando-a em uma imagem digital.

Nesta etapa, ´e aplicado uma seq¨uˆencia de filtros de processamento de imagem, com o intuito de eliminar o ru´ıdo, ou seja, quaisquer dados que n˜ao estejam ligados ao objetivo a ser realizado.

Finalmente, as t´ecnicas de vis˜ao computacional s˜ao utilizadas extraindo informa¸c˜oes a respeito do mundo tridimensional, a partir de uma imagem bidimensional.

Diversas ´areas est˜ao relacionadas com vis˜ao computacional, como reconhecimento de padr˜oes, fotogrametria, inteligˆencia artificial, dentre outras.

Embora n˜ao seja freq¨uente realizar tal dinstin¸c˜ao, neste trabalho por vis˜ao rob´otica entende-se como sendo a intersec¸c˜ao da vis˜ao computacional com a rob´otica. Tratam-se dos problemas que surgem na rob´otica cujas solu¸c˜oes baseiam-se nas t´ecnicas de vis˜ao computacional, mas que, al´em disso, devem atender a restri¸c˜oes de tempo real, `as limi- ta¸c˜oes do software e hardware embarcado, e ao ambiente de trabalho.

Este cap´ıtulo encontra-se dividido em duas partes: Na primeira, revisa-se as t´ecnicas de vis˜ao computacional necess´arias para realizar o controle servo visual baseado na posi¸c˜ao (3.3), e inclui as se¸c˜oes 2.4, onde um modelo detalhado da cˆamera ´e apresentado, 4.2, que apresenta um m´etodo de calibra¸c˜ao de Tsai e, 4.3, que discute o problema de reconstru¸c˜ao da profundidade baseado em uma ou mais imagens.

A segunda parte trata especificamente dos problemas de vis˜ao computacional ne- cess´arios para realiza¸c˜ao das tarefas de controle servo visual de seguimento de trajet´oria (3.4.4), posicionamento (3.4.5) e transi¸c˜ao entre tarefas (3.4.6). Nas se¸c˜oes 4.5 e 4.6, as principais t´ecnicas para resolver os problemas de detec¸c˜ao e rastreamento de carac- ter´ısticas visuais, s˜ao revistos.

4.1

Modelo Detalhado de Cˆamera

O modelo de cˆamera de pinhole, visto no cap´ıtulo 2, considera que os raios de luz s˜ao projetados em uma tela dentro de uma cˆamera totalmente fechada, contendo apenas um ´

unico orif´ıcio pontual, atrav´es do qual atravessam todos os feixes de luz que formam a imagem. Entretanto, numa implementa¸c˜ao real deste modelo, a energia que estimula a

4.1. Modelo Detalhado de Cˆamera 50 ly Yc Xc lx u v f z x y

Figura 4.2: Modelo Detalhado de Cˆamera.

tela ´e muito pequena, demandando um tempo de exposi¸c˜ao muito grande para se obter uma imagem. As cˆameras reais substituem o orif´ıcio por um conjunto ´optico de lentes que produzem aproximadamente o mesmo efeito. Entretanto, o modelo de pinhole n˜ao ´e capaz de modelar as distor¸c˜oes produzidas pela lente, nem relacionar a imagem projetada com as coordenadas da matriz de CCD. Tsai (1986) propˆos uma extens˜ao que permite relacionar de forma mais precisa a imagem esperada da imagem obtida. O modelo possui 11 parˆametros: cinco internos (ou intr´ınsicos):

• f - distˆancia focal da cˆamera,

• κ - coeficiente de distor¸c˜ao de primeira ordem, • Cx, Cy - coordenadas do centro radial da lente,

• sx - fator de escala para incertezas devido `a reamostragem horizontal da placa de captura (framegrabber ),

e seis externos (ou extr´ınsicos):

• Rx, Ry, Rz - ˆangulos de rota¸c˜ao para a transforma¸c˜ao entre os sistemas de coorde- nadas do mundo e da cˆamera, e

• Tx, Ty, Tz - componentes translacionais para a transforma¸c˜ao entre os sistemas de coordenadas do mundo e da cˆamera.

Os parˆametros internos dizem respeito `a geometria interna e caracter´ısticas ´opticas das lentes e do dispositivo sensor de imagem. Este parˆametros descrevem como a cˆamera forma a imagem, enquanto os parˆametros externos descrevem a postura da cˆamera em rela¸c˜ao a um sistema de coordenadas global.

No documento Controle por visão de veiculos roboticos (páginas 63-67)

Documentos relacionados