Summary: | Nas últimas décadas, observou-se um aumento gradativo na utilização de Veículo Aéreo Não Tripulado (VANT) em diversas áreas, entre elas, monitoramento do uso da terra, operações de busca e resgate, acompanhamento de impactos ambientais, vigilância de fronteiras, entre outras. Há expectativas no aumento do emprego de VANT em aplicações civis e militares devido ao baixo custo de desenvolvimento e operacional, quando comparados com aeronaves tripuladas. A ausência de tripulação embarcada durante o emprego de VANT, principalmente em missões de grande periculosidade, também é uma vantagem, pois diminui os riscos à vida humana. Com o aumento do emprego de VANT o desenvolvimento de sistemas para a sua navegação autônoma tem sido tema de diversas pesquisas. Uma das tarefas dos sistemas de navegação autônoma de VANT é estimar sua posição. A grande maioria dos sistemas de navegação autônoma de VANT utilizam a fusão de dados do Sistema de Navegação Inercial (INS, do inglês, Inertial Navigation System) com os dados do Sistema de Navegação Global por Satélite (Global Navigation Satellite System) (principalmente o Sistema de Posicionamento Global (GPS, do inglês, Global Positioning System)) para estimar a posição do VANT. Mas o GNSS pode sofrer interferência em seu sinal devido a ataques maliciosos e a fenômenos naturais. O desenvolvimento de um sistema de visão computacional, que utiliza imagens capturadas e processadas em tempo de voo para determinar a localização do VANT, pode substituir a informação do GNSS. Entretanto, ainda é um desafio o desenvolvimento de um sistema de estimação da posição do VANT por processamento de imagens para operar durante a navegação da aeronave sobre regiões cobertas por água (por exemplo, o oceano) e em condições de baixa ou sem luminosidade. Neste contexto, esta tese de doutorado apresenta uma metodologia que estima a posição geográfica de um VANT quando este sobrevoa regiões cobertas por água e regiões com baixa ou sem luminosidade utilizando imagens provenientes de um sensor ativo denominado Light Detection And Ranging (LiDAR). A metodologia proposta utiliza a fusão de dados, por um Filtro de Partículas Não-Extensível (FPNE), de duas técnicas de visão computacional, odometria visual e registro automático de imagens, para estimar a posição da aeronave. O sistema de estimação da posição requer que o processamento seja feito em sistemas embarcados e em tempo de voo, por este motivo, a metodologia proposta é desenvolvida em computadores portáteis e de baixo consumo e que permitam a computação de alto desempenho. Para a validação da metodologia proposta são realizados testes com dois conjunto de dados diferentes: o primeiro com dados reais do voo de VANT, mas capturado por uma câmera de vídeo; o segundo, uma simulação utilizando imagens de um sensor LiDAR. Os resultados obtidos com as técnicas empregadas mostram-se promissores para emprego na navegação autônoma de VANT em regiões cobertas por água ou e em regiões com baixa ou sem luminosidade. === In the last years, there was a gradual increase in the employment of Unmanned Aerial Vehicles (UAV) in several areas, among them, land-use monitoring, search and rescue operations, monitoring of environmental impacts, border surveillance, and others. There is an expectation that the use of UAVs will increase in the future, due to the low costs of development and low operational costs when compared to manned aircraft. The main advantage of the UAV employment is the absence of onboard crew, which reduces the risks to human life. With the increase of UAV employment, the development of systems for its autonomous navigation has been subject of several investigations. One of the tasks of autonomous navigation systems for UAV is to estimate its position. The main strategy applied for estimating the UAV position is the use of information from Inertial Navigation System (INS) combined with information from Global Navigation Satellite System (GNSS).The signal of GNSS can suffer an outage due to malicious attacks and natural phenomena. Thus, the development of a computer vision system, which uses images captured and processed in flight time, can be used to determine the UAV location and replace the information from GNSS. However, the development of a computer vision system for estimating the UAV position in a situation of flight over water-covered areas (eg the ocean) and flight in low light conditions is a challenge. In this context, this doctoral thesis presents an approach for estimating the geographical position of a UAV, when it flies over regions covered by water and regions with low light conditions. The approach uses images from an active sensor called Light Detection And Ranging (LiDAR) to allow the flight in those conditions. The proposed approach estimates the aircraft position by employing data fusion of two techniques of position estimation by computer vision: visual odometry and the image matching. The data fusion algorithm is performed by an Non-Extensible Particle Filter (NEPF). The approach requires that the processing be done in embedded systems and in flight time, thus, the proposed method is developed in portable and low-power high-performance computer. For the validation of the proposed method, two different data sets are applied: the first one composed by real flight data from an UAV, with images captured by its video camera; and the second one, a simulation using images from a LiDAR sensor. The approach results are promising for the UAV position estimation in regions covered by water or in regions with low light conditions.
|