• Nenhum resultado encontrado

TRIPULADO BASEADA EM GPS, IMU E DADOS VISUAIS

N/A
N/A
Protected

Academic year: 2021

Share "TRIPULADO BASEADA EM GPS, IMU E DADOS VISUAIS"

Copied!
6
0
0

Texto

(1)

ESTIMA ¸C ˜AO DE POSI ¸C ˜AO E ATITUDE DE UM VE´ICULO A ´EREO N ˜AO TRIPULADO BASEADA EM GPS, IMU E DADOS VISUAIS

L´ucio A. Amorim∗, Milton C. P. Santos†, Felippe M. de Queiroz∗, Leonardo de A. Silva∗, Raquel F. Vassalo∗, M´ario Sarcinelli-Filho∗

Departamento de Engenharia El´etrica, Universidade Federal do Esp´ırito Santo, Vit´oria - ES, BrasilInstituto Federal do Esp´ırito Santo, Santa Teresa - ES, Brasil

Emails: lucioaamorim@gmail.com, milton.santos@ifes.edu.br, mendonca.felippe@gmail.com, leonardo.as.ufes@gmail.com, raquel@ele.ufes.br, mario.sarcinelli@ufes.br

Abstract— This paper presents the initial development of an aerial platform with algorithms programmed in C ++ to acquire data provided by a GPS module and by an inertial measurement unit (IMU), as well as to capture aerial images, with all these sensors onbard a quadrotor. To validate the work, we used a standard pre-defined image pattern (a checkerboard one on the ground) in the environment, for extracting the position and attitude of the aircraft during the experiment via artificial vision. Through processing the acquired images, the position and orientation of the camera onboard the aircraft are obtained, and so the position and attitude of the aircraft itself are obtained. Additionally, it is also implemented a fusion algorithm for improving the estimate of the position and posture of the rotorcraft, using the data provided by the onboard IMU and GPS module. Keywords— Aerial robotics, computer vision, sensorial fusion, Kalman filter.

Resumo— Este trabalho apresenta o desenvolvimento inicial de uma plataforma a´erea com algoritmos em C++ para a aquisi¸c˜ao de dados de GPS e de informa¸c˜oes de sensores inerciais (IMU) e captura de imagens a´ereas, sendo tais instrumentos embarcados em um quadrimotor. Para validar o trabalho desenvolvido, utilizou-se um padr˜ao de imagem pr´e-definido (um tabuleiro de xadrez no ch˜ao) no ambiente, para a extra¸c˜ao da posi¸c˜ao e da postura da aeronave durante o experimento, via vis˜ao artificial. Assim, atrav´es do processamento das imagens adquiridas s˜ao obtidos dados correspondentes `a posi¸c˜ao e orienta¸c˜ao da cˆamera embarcada na aeronave, e assim da pr´opria aeronave. Adicionalmente, implementou-se um algoritmo de fus˜ao para melhorar a estima¸c˜ao da posi¸c˜ao e da postura do quadrimotor, usando dados da IMU e do m´odulo de GPS embarcados.

Palavras-chave— Rob´otica a´erea, vis˜ao computacional, fus˜ao de sensores, filtro de Kalman.

1 Introdu¸c˜ao

Muitas pesquisas em rob´otica direcionam-se para aplica¸c˜oes de ve´ıculos a´ereos n˜ao tripulados (VANTs). Aplica¸c˜oes envolvendo VANTs distin-tos, incluem desde grandes aeronaves, com deze-nas de metros, aos pequenos quadrimotores de cent´ımetros de comprimento (conhecidos popu-larmente como drones). Essas pequenas aero-naves est˜ao sendo utilizadas em diversas ´areas como entretenimento, aplica¸c˜oes militares, mo-nitoramento de ambientes, entre outros. Outro ramo que vem ganhando visibilidade s˜ao as aplica-¸

c˜oes em monitoramento agr´ıcola, devido `as gran-des ´areas de planta¸c˜ao, que s˜ao dif´ıceis de serem monitorados em solo.

Os quadrimotores utilizados nessas aplica¸c˜oes de monitoramento, geralmente classificados como robˆos a´ereos, tamb´em podem se enquadrar na ca-tegoria de robˆo de servi¸co, uma vez que auxiliam o homem em ambientes de dif´ıcil acesso, em mo-nitoramento florestal (Berni et al., 2009), em apli-ca¸c˜oes agr´ıcolas (Zainuddin et al., 2014), ou at´e mesmo em locais onde o uso de uma aeronave de tamanho normal se tornaria invi´avel (ambientes internos como armaz´ens, por exemplo), tanto pela limita¸c˜ao de espa¸co, quanto pelo alto custo. De-vido ao crescente uso de drones para a realiza-¸

c˜ao de diversas tarefas, muitos pa´ıses j´a est˜ao

cri-ando suas leis para regulamentar a utiliza¸c˜ao des-ses robˆos, devido ao risco de acidentes. De fato, um ve´ıculo a´ereo n˜ao tripulado deve ser confi´avel a ponto de voar sem causar acidentes ou minimi-zando seus efeitos. Na verdade, sua confiabilidade est´a diretamente relacionada ao controlador em-pregado para guiar o drone de forma autˆonoma, aos seus sensores e tecnologias usadas.

No que tange a sensores, alguns comumente utilizados s˜ao os m´odulos de IMU e de GPS, cˆ ame-ras, barˆometros, sonares, mapa de profundidade, entre outros. Geralmente, para melhorar a confia-bilidade, utiliza-se a fus˜ao dos dados provenientes de dois ou mais sensores, obtendo assim, uma in-forma¸c˜ao sensorial mais confi´avel. Na literatura, existem diversas aplica¸c˜oes com bons resultados provenientes dessa fus˜ao sensorial, como (Engel et al., 2012; Vago Santana et al., 2013) que fusi-onam dados dos sensores embarcados no ve´ıculo para estimar a posi¸c˜ao da aeronave.

1.1 Motiva¸c˜ao

(2)

o grupo de pesquisa tem por objetivo construir mosaicos georreferenciados a partir de imagens a´ e-reas, al´em do processamento destas a fim de detec-tar poss´ıveis focos de incˆendio. Entretanto, o uso apenas de GPS n˜ao assegura a correta localiza¸c˜ao do drone, j´a que o equipamento depende da quan-tidade de sat´elites conectados entre outros fatores, dificultando a precis˜ao na aquisi¸c˜ao das imagens. Assim, o objetivo deste trabalho ´e validar a plata-forma a´erea para adquirir os dados de localiza¸c˜ao do GPS, capturar imagens a´ereas e experimentar uma forma eficiente de realizar a fus˜ao dos dados extra´ıdos do processamento de imagens, IMU e do GPS, com a finalidade de melhorar a precis˜ao da postura do quadrimotor.

1.2 Objetivo

O objetivo deste trabalho pode ser sintetizado na seguinte sequˆencia: adquirir os dados de navega-¸

c˜ao, adquirir as imagens a´ereas, e implementar a fus˜ao dos dados obtendo pelo m´odulo da IMU e do GPS com os parˆametros extr´ınsecos extra´ıdos do sistema de vis˜ao.

1.3 Metodologia

O projeto est´a dividido em cinco sistemas: o de navega¸c˜ao, de aquisi¸c˜ao de dados, de aquisi¸c˜ao de imagens, de calibra¸c˜ao e extra¸c˜ao de parˆametros extr´ınsecos do sistema de vis˜ao, e por fim o de fus˜ao dos dados utilizando Filtro Descentralido de Kalman.

2 Os Sistemas Envolvidos

A plataforma utilizada para os experimentos ´e um quadrimotor (ver Figura 1) equipado com um controlador Ardupilot (mais detalhes em http: //ardupilot.com/), link de telemetria, bateria de l´ıtio pol´ımero de 5200 mAh, IMU, GPS, sensor de ultrassom, link de v´ıdeo de 5.8 Ghz, al´em de uma placa Raspberry Pi com uma cˆamera propri-et´aria instalada (mais detalhes em http://www. raspberrypi.org/).

Figura 1: A plataforma a´erea desenvolvida. Nas subse¸c˜oes seguintes ser˜ao descritos os m´ o-dulos implementados, posteriormente ser´a apre-sentado um m´etodo de fus˜ao dos dados.

2.1 Sistema de Navega¸c˜ao

Para este trabalho, foi utilizado um drone com controle semi-manual, uma vez que este possui um controlador comercial denominado Ardupilot. Os comandos enviados para o drone s˜ao realiza-dos por meio de um r´adio controle de oito ca-nais, com o controlador configurado no modo Loi-ter. Neste modo, o drone busca manter a posi¸c˜ao atual, sendo poss´ıvel enviar os comandos de subir, descer, frente, tr´as, direita, esquerda e rotacionar em torno do pr´oprio eixo.

2.2 Sistema de Aquisi¸c˜ao de Dados

Para adquirir os dados de vˆoo do drone, foi desenvolvido uma aplica¸c˜ao, em C++, que re-aliza a aquisi¸c˜ao destes dados com o aux´ı-lio da bibaux´ı-lioteca Mavlink (veja em https: //www.pixhawk.ethz.ch/mavlink/), disponibili-zada gratuitamente. Essa biblioteca disp˜oe de protocolos que realizam a comunica¸c˜ao entre os VANTs e uma esta¸c˜ao em terra. No experimento aqui realizado, foi usada uma placa Raspberry Pi acoplada no drone, sendo respons´avel pelas cone-x˜oes necess´arias de comunica¸c˜ao e pelo armazena-mento de dados. A placa Ardupilot (o controlador do quadrimotor) implementa a transmiss˜ao de in-forma¸c˜oes dos sensores embarcados no quadrimo-tor pelo protocolo Mavlink. No caso do m´odulo GPS e da IMU, a transmiss˜ao ´e feita a uma taxa de 2 Hz. Assim, o software implementado realiza as leituras das mensagens, filtrando os dados ne-cess´arios para determinar a posi¸c˜ao e atitude do drone. Estes dados s˜ao armazenados em um ar-quivo na placa Raspberry Pi, para processamento futuro.

Figura 2: Padr˜ao de calibra¸c˜ao utilizado, in-cluindo seu sistema de coordenadas.

(3)

Tal transforma¸c˜ao do sistema de referˆencias global para o sistema local (em metros) tamb´em consi-dera a curvatura da Terra. Em especial, na con-vers˜ao de longitude, foi utilizada como referˆencia o raio da Terra na latitude 20 16018.2”S, devido a

proximidade com a localiza¸c˜ao geogr´afica dos ex-perimentos.

2.3 Sistema de Aquisi¸c˜ao de Imagens

A captura das imagens ´e realizada utilizando uma cˆamera RaspiCam acoplada a uma placa Rasp-berry Pi, capturando imagens com resolu¸c˜ao de 1280x960. Para adquirir a imagem, ´e utilizado o mesmo software que faz a aquisi¸c˜ao dos dados do drone. Por´em, para que as imagens sejam ex-tra´ıdas no momento desejado, o software realiza a leitura de um determinado canal do r´adio controle que ´e conectado a uma chave, e quando esta ´e aci-onada a Raspberry Pi dispara a cˆamera e salva a imagem em um arquivo local.

2.4 Sistema de Calibra¸c˜ao e extra¸c˜ao dos Parˆ a-metros Extr´ınsecos

Neste trabalho deseja-se extrair informa¸c˜oes m´ e-tricas utilizando uma cˆamera, com o objetivo de melhorar as informa¸c˜oes de posi¸c˜ao do quadri-motor a partir da fus˜ao de sensores, para isso, ´e fundamental realizar sua calibra¸c˜ao (cˆamera). Na literatura, existem duas categorias de m´etodo de calibra¸c˜ao. Uma delas ´e conhecida como self-calibration, esta estima os parˆametros extr´ınsecos assim como a posi¸c˜ao da cˆamera a partir de ima-gens do ambiente, com pouco ou nenhum conhe-cimento sobre a cena; e outra, que ´e mais sim-ples e amplamente utilizada, emprega imagens de objetos com dimens˜oes conhecidas (ver (Ma et al., 2004)).

O m´etodo de (Zhang, 2000) ´e amplamente uti-lizado, onde a partir de uma sequˆencia de imagens de um padr˜ao planar com dimens˜oes conhecidas, ´e poss´ıvel estimar os parˆametros intr´ınsecos. Com estes pode-se calcular os parˆametros extr´ınsecos, que representam uma transforma¸c˜ao de corpo r´ı-gido composta por uma rota¸c˜ao e uma transla¸c˜ao, utilizada para trocar o referencial do sistema de coordenadas do padr˜ao para o referencial da cˆ a-mera.

Com uma sequˆencia de imagens capturadas, utilizando um padr˜ao quadriculado de dimens˜oes 1.60 m x 2.20 m com cada quadrado medindo 20 cm, realiza-se a calibra¸c˜ao utilizando uma tool-box do MATLAB R (Camera Calibration Toolbox

for Matlab), que ao fim do processo (utilizando o m´etodo (Zhang, 2000)) ´e poss´ıvel obter, no refe-rencial do padr˜ao de calibra¸c˜ao, as coordenadas 3-D do VANT, al´em dos ˆangulos de rota¸c˜ao em torno dos trˆes eixos.

3 Filtros de fus˜ao

Para realizar o posicionamento 3-D do VANT, necessita-se que sua posi¸c˜ao esteja em coordena-das globais. No caso espec´ıfico do VANT, tal tarefa ´e normalmente realizada utilizando as in-forma¸c˜oes providas por um subsistema de fus˜ao envolvendo o conjunto: Ardupilot com os senso-res acoplados `a aeronave. Entretanto, observam-se erros expressivos quando observam-se utiliza estas infor-ma¸c˜oes, afetando algumas vezes o cumprimento da miss˜ao de uma forma indesej´avel. Este pro-blema ´e comum na literatura, uma vez que as po-si¸c˜oes dos ve´ıculos s˜ao obtidas por rota¸c˜oes e in-tegra¸c˜ao das velocidades. Para solucionar tal pro-blema, muitos autores adotaram a fus˜ao de da-dos sensoriais usando sensores adicionais. Para realizar essa fus˜ao de dados, dois m´etodos po-dem ser adotados, nomeados Filtro de Kalman (Kalman, 1960) e Filtro de Kalman Descentra-lizado (Mutambara, 1998), no caso de m´ultiplos sensores.

Estes filtros permitem a fus˜ao de dados vin-dos de m´ultiplos sensores, resultando em dados de sa´ıda cuja variˆancia ´e menor que a menor variˆ an-cia assoan-ciada aos dados medidos por cada sensor individualmente (Mutambara, 1998). Como o ob-jetivo deste trabalho ´e de determinar a posi¸c˜ao tridimensional de um VANT, ser˜ao utilizados da-dos provenientes da-dos m´odulos de GPS e da IMU, bem como os da cˆamera.

3.1 Filtro de Kalman

Para utilizar o Filtro de Kalman, deve-se conside-rar que o sistema seja modelado por

x(k + 1) = A(k)x(k) + w(k)

z(k) = H(k)x(k) + υ(k), (1) onde x(k) representa o vetor de estados do pro-cesso no instante k, A(k) ´e uma matriz que re-laciona a transi¸c˜ao dos estados x(k) e x(k + 1), z(k) ´e um vetor de observa¸c˜oes, H(k) ´e a matriz de observa¸c˜ao que descreve a conex˜ao entre z(k) e x(k) e, por fim, w(k) e v(k) s˜ao vetores de ru´ıdo no sistema e nas observa¸c˜oes, respectivamente.

Considerando uma estimativa inicial do pro-cesso como ˆx(k|k − 1) no instante tk,as equa¸c˜oes

(4)

onde P (k|k − 1) ´e a previs˜ao de P (k) (dadas as observa¸c˜oes at´e o instante k − 1), P (k) ´e a matriz de covariˆancia do erro entre o estado real x(k) e o estado estimado ˆx(k) e K(k) ´e a matriz de ganho do Filtro de Kalman.

A limita¸c˜ao deste filtro para fus˜ao sensorial est´a na existˆencia de sensores distintos que con-tribuem com a mesma observa¸c˜ao (z(k)). A de-fini¸c˜ao do FK ´e importante para compreens˜ao do m´etodo de fus˜ao que ser´a apresentado a seguir. 3.2 Filtro de Kalman Descentralizado

Um sistema descentralizado de fus˜ao ´e composto de m´ultiplas estruturas envolvendo um filtro de alto n´ıvel e filtros locais de baixo n´ıvel. Um fil-tro local, relacionadas com as observa¸c˜oes de cada sensor, estima a vari´avel de estado local. O filtro mestre/alto n´ıvel combina as estimativas transmi-tidos a partir de filtros locais e determina o estado globalmente ideal. ´E importante observar que o termo descentralizado do filtro, est´a relacionado com o processamento dos n´os locais, mesmo exis-tindo a conex˜ao entre as redes.

O algoritmo ´e executado nos filtros ou n´os da seguinte maneira: no instante k, para o i-´esimo filtro local tem-se

ˆ

xi(k) = Pi(k) (P−1(k − 1)ˆx(k − 1) + Hi(k)R−1i zi(k)) ,

(4) e

Pi−1= P−1(k − 1) + HiT(k)R−1i (k)Hi(k), (5)

e para o filtro global, tem-se ˆx(k) = P (k) [Pn i=1P −1 i (k)ˆxi(k) − (n − 1)P−1(k − 1)ˆx(k − 1)] , (6) e P−1(k) = n X i=1 Pi−1(k) − (n − 1)P−1(k − 1). (7) 3.3 Estima¸c˜ao de Estado

As vari´aveis de sa´ıda s˜ao os estados em q = [ξ η]T,

onde ξ = [x y z] ∈ <3representa os deslocamentos

longitudinal, lateral e normal respectivamente, e η = [φ θ ψ] ∈ <3 os ˆangulos roll, pitch e yaw,

res-pectivamente. Neste trabalho, os estados a serem estimados pelo filtro s˜ao

x = x y z φ θ ψ . (8) O diagrama na Figura 3 representa as matri-zes utilizadas na fus˜ao de dados provenientes da cˆamera e dos m´odulos GPS e IMU. Vale lembrar, que o controlador Ardupilot fornece as informa-¸

c˜oes de posi¸c˜ao e postura da aeronave. Logo, o termo GPS/IMU ´e referente as informa¸c˜oes pro-cessadas e filtradas pelo dispositivo Ardupilot.

Como mencionado anteriormente, a informa-¸

c˜ao obtida para a posi¸c˜ao do VANT ´e proveniente do sistema de GPS/IMU e de informa¸c˜oes do sis-tema de vis˜ao. Assim, o DKF possui um filtro global e dois filtros locais, onde a configura¸c˜ao das matrizes s˜ao Filtro Local

1

z1 R1 H1 Filtro Local

2

z2 R2 H2

GPS/IMU Dados da Câmera

Filtro de Kalman Descentralizado A Q Filtro Global x ^

Figura 3: Diagrama representando todo o sistema de estima¸c˜ao de estados utilizando o Filtro de Kal-man Descentralizado.

F ilter − 1 recebe dados do sistema GPS/IMU, com o vetor de medidas e o modelo de ob-serva¸c˜ao definidos por z1 = x y z φ θ ψ

T

, H1 ´e uma matriz identidade 6 x 6, e R1 ´e

matriz diagonal e σ2 xz1, σ 2 yz1, σ 2 zz1, σ 2 φz1, σ 2 θz1 e σ2 ψz1.

F ilter − 2 recebe dados do sistema de vis˜ao, com o vetor de medidas e o modelo de observa¸c˜ao definidos por z2=xc yc zc φc θc ψc

T

, H2´e

uma matriz identidade 6 x 6, e R2 ´e matriz

diagonal e σx2z2, σy2z2, σ2zz2, σ2φ z2, σ 2 θz2 e σ 2 ψz2.

Finalmente, o filtro global (DKF) tem a se-guinte configura¸c˜ao:

        xk+1 yk+1 zk+1 ψk+1 θk+1 φk+1         =         xk+ ˙xkδt yk+ ˙ykδt zk+ ˙zkδt ψk+ ˙ψkδt θk+ ˙θkδt φk+ ˙φkδt         , (9) 4 Resultados

Os resultados alcan¸cados representam os dados obtidos a partir do sistema de fus˜ao proposto neste trabalho para estimar posi¸c˜ao e atitude de um drone, considerando as transforma¸c˜oes aplicadas nas imagens a´ereas de um padr˜ao pr´e-definido. A Se¸c˜ao 2 apresenta o m´etodo utilizado para extrair a vari´avel [ξ η] das imagens.

(5)

x

(a)

Figura 4: Resultados para a posi¸c˜ao e orienta¸c˜ao da cˆamera durante o modo de vˆoo hover.

de medi¸c˜ao e os dados estat´ısticos provenientes do sistema de GPS s˜ao previamente conhecidos (Li et al., 2011).

No segundo experimento ´e apresentado o re-sultado da fus˜ao dos dados sensoriais. A estrutura de fus˜ao corresponde a dois filtros locais, configu-rados a partir de dados estat´ısticos obtidos experi-mentalmente. Mais uma vez os dados foram cole-tados durante o vˆoo controlado por um operador, que ativa a captura da cˆamera quando desejar. Esta aquisi¸c˜ao manual de imagens trata de uma caracter´ıstica importante do DKF, que se refere `

a taxa de estima¸c˜ao do filtro global, que opera na mesma taxa do sensor mais r´apido, mesmo li-dando com outros sensores com taxa de aquisi¸c˜ao ass´ıncrona ou mais lenta. Note que a aquisi¸c˜ao manual de imagens ´e um exemplo de uma aquisi-¸

c˜ao ass´ıncrona de dados, operando juntamente do subsistema GPS/IMU que tem uma taxa de aqui-si¸c˜ao de 2 Hz. Os resultados deste experimento s˜ao apresentados na Figura 6.

Ainda sobre o experimento de vˆoo manual, mostrado nos gr´aficos da Figura 6, a linha verme-lha tracejada representa o resultado da fus˜ao. Nos gr´aficos, observa-se ainda que os ajustes ocorre-ram exatamente no momento da captura das ima-gens (c´ırculo azul), comprovando que a fus˜ao das informa¸c˜oes da vis˜ao auxiliam na estima¸c˜ao.

5 Conclus˜ao

Como ilustrado pelos experimentos aqui apresen-tados, ´e poss´ıvel melhorar a estima¸c˜ao da posi¸c˜ao e da atitude de um VANT usando mais sensores, independentemente da taxa de aquisi¸c˜ao dos no-vos sensores. Esta estrat´egia de fus˜ao de dados ´e adotada quando ´e necess´ario reduzir os erros en-volvidos no c´alculo da posi¸c˜ao de uma aeronave,

assim como nos casos de controle autˆonomo para navega¸c˜ao 3-D (Vago Santana et al., 2013) e na cria¸c˜ao de imagens georreferenciadas (Yahyanejad et al., 2010), que ´e o foco principal desta pesquisa. Neste primeiro passo da pesquisa, foi de-senvolvido toda a instrumenta¸c˜ao embarcada no drone necess´aria para coletar os dados supracita-dos. O drone, chamado Projeto Ω, ´e capaz de capturar imagens do padr˜ao visual adotado com altitudes acima de 30 m, possibilitando a aqui-si¸c˜ao de imagens para gerar um mosaico georre-ferenciado para diversas aplica¸c˜oes civis, como o monitoramento de ´areas com risco de incˆendio.

Neste trabalho, foi apresentado um m´etodo de extrair a posi¸c˜ao e a atitude de uma aeronave usando apenas um padr˜ao visual, que pode ser substitu´ıdo por uma imagem representando a es-ta¸c˜ao de pouso remota onde o drone pousar´a, mi-nimizando assim os erros de estima¸c˜ao de posi¸c˜ao e postura durante a aterrissagem.

Como trabalho futuro pretende-se desenvolver arquiteturas simplificadas para permitir a realiza-¸

c˜ao de voos autˆonomos (Vago Santana et al., 2013) e construir mosaicos georreferenciados visando a inspe¸c˜ao de ´areas pr´e-definidas procurando por poss´ıveis focos de incˆendio.

Agradecimentos

Ao CNPq - Conselho Nacional de Desenvolvi-mento Cient´ıfico e Tecnol´ogico, e `a FAPES - Fun-da¸c˜ao de Amparo `a Pesquisa e Inova¸c˜ao do Es-p´ırito Santo, que financiaram a realiza¸c˜ao desta pesquisa. `A UFES, ao IFES - Campus Santa Te-reza, e ao CBMES - Corpo de Bombeiros Militar do Esp´ırito Santo, por sua participa¸c˜ao neste tra-balho.

Referˆencias

Berni, J., Zarco-Tejada, P., Suarez, L. and Fe-reres, E. (2009). Thermal and narrowband multispectral remote sensing for vegetation monitoring from an unmanned aerial vehicle, Geoscience and Remote Sensing, IEEE Tran-sactions on 47(3): 722–738.

Engel, J., Sturm, J. and Cremers, D. (2012). Camera-based navigation of a low-cost quadrocopter, Proceedings of the 2012 IEEE/RSJ International Conference on In-telligent Robots and Systems.

Kalman, R. E. (1960). A new approach to linear filtering and prediction problems, ASME Journal of Basic Engineering .

(6)

mo-(a) (b)

Figura 5: Dados obtidos durante a aquisi¸c˜ao das posi¸c˜oes x, y e z do drone em (a). Em (b) est´a apresentada uma elipsoide centrada no valor m´edio das coordenadas durante o modo de voo hover (x, y, z), onde os raios correspondem ao desvio padr˜ao das medidas obtidas em cada eixo (σx, σy, σz).

a b c d e f

Figura 6: Os resultados da estima¸c˜ao do [ξ η] pelo DKF, onde ξ = [x y z] ∈ <3 representa os desloca-mentos longitudinal (a), lateral (b) e normal (c), e η = [φ θ ψ] ∈ <3 indica os ˆangulos de roll (d), pitch (e) e yaw (f).

del evaluation, IEEE Transactions on Geos-cience and Remote Sensing 49(1): 203–210. Ma, Y., Soatto, S., Kosecka, J. and Sastry, S. S.

(2004). An Invitation to 3-D Vision: From Images to Geometric Models, Springer. Mutambara, A. G. (1998). Decentralized

Esti-mation and Control for Multisensor Systems, CRC Press.

Vago Santana, L., Sarcinelli-Filho, M. and Ca-relli, R. (2013). Estimation and control of the 3d position of a quadrotor in indoor environ-ments, Advanced Robotics (ICAR), 2013 16th International Conference on, pp. 1–6. Yahyanejad, S., Wischounig-Strucl, D., Quaritsch,

M. and Rinner, B. (2010). Incremental

mo-saicking of images from autonomous, small-scale uavs, Advanced Video and Signal Based Surveillance (AVSS), 2010 Seventh IEEE In-ternational Conference on, pp. 329–336. Zainuddin, K., Bohari, S., Ghazali, N., Aziz, M.

and Samad, A. (2014). Utilizing quadcop-ter as lars image platform to dequadcop-termine the paddy spectral and growth parameter, Aeros-pace Electronics and Remote Sensing Tech-nology (ICARES), 2014 IEEE International Conference on, pp. 210–215.

Zhang, Z. (2000). A flexible new technique for camera calibration, Pattern Analysis and Machine Intelligence, IEEE Transactions on Pattern Analysis and Machine Intelligence 22(11): 1330–1334.

Tabela 1: Estat´ısticas das medidas obtidas atrav´es das imagens.

Referências

Documentos relacionados

As caracter´ısticas para descri¸c˜ao de regi˜oes em uma imagem s˜ao obtidas a partir dos coeficientes da transformada wavelet, que apresentam informa¸c˜oes sobre as

3.1.2 Teste in vitro para a avaliação da atividade antibacteriana dos extratos metanólicos A atividade antibacteriana de cada extrato bruto foi avaliada em relação a três

O ingresso do Pedagogo na Policia Militar do Rio de Janeiro acontece anualmente através de concurso público chamado Estágio Probatório e Adaptação de Oficiais - EPAO

Promover oficinas para confecção de bonecos gigantes e restauro dos já existentes, proporcionando ao cidadão a aprendizagem da técnica de papietagem, modelagem

Se vocˆe obter o seguinte erro quando estiver compilando o MySQL com gcc, significa que seu gcc n˜ao est´a configurado para sua vers˜ao de Solaris:. shell&gt; gcc -O3 -g -O2

Um conjunto X dotado de uma rela¸c˜ ao de ordem parcial ´e dito ser um conjunto bem-ordenado se todo subconjunto A n˜ ao vazio de X tem um elemento m´ınimo em A.. Mostre que

Mostre que todo conjunto bem-ordenado segundo uma rela¸c˜ ao parcial de ordem ´e tamb´em totalmente ordenado.. segundo a mesma

Dos Pactos e Convenções ratificados por Ruanda antes da Guerra Civil de 1994, temos o Pacto de Direitos Civis e Políticos, pertencente ao sistema global de proteção dos