Summary: | Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2014. === Submitted by Larissa Stefane Vieira Rodrigues (larissarodrigues@bce.unb.br) on 2014-12-10T13:12:07Z
No. of bitstreams: 1
2014_JonathanAlisSalgadoLima.pdf: 31064607 bytes, checksum: 11f9b0e568141065b197b87a30139fb4 (MD5) === Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2014-12-12T15:25:08Z (GMT) No. of bitstreams: 1
2014_JonathanAlisSalgadoLima.pdf: 31064607 bytes, checksum: 11f9b0e568141065b197b87a30139fb4 (MD5) === Made available in DSpace on 2014-12-12T15:25:08Z (GMT). No. of bitstreams: 1
2014_JonathanAlisSalgadoLima.pdf: 31064607 bytes, checksum: 11f9b0e568141065b197b87a30139fb4 (MD5) === Vídeos adquiridos em alta resolução temporal têm aplicações em vários segmentos como ciência, indústria, segurança, entretenimento, esportes, etc. Porém, as câmeras que adquirem vídeos em alta resolução temporal são muito caras e, portanto, há uma necessidade de desenvolvimento de novas formas de aquisição. Novas arquiteturas de câmeras computacionais têm utilizado aquisição em câmeras comuns de baixa resolução temporal e a teoria de compressive sensing para reconstruir vídeos de maior resolução temporal. Porém, as técnicas de aquisição presentes na literatura apresentam dependência temporal entre as medidas e descarte de informação luminosa. Neste trabalho, apresentamos um novo método para a aquisição de medidas lineares de nominado Per-pixel mirror-based measuring (PPM). O método proposto apresenta medidas temporalmente independentes e aproveita 100% da informação luminosa. Nossa metodologia de testes consiste em simular os modos de aquisição presentes na literatura e o método proposto, adquirir amostras de um conjunto de vídeos (sintéticos e reais), reconstruir utilizando o mesmo algoritmo de reconstrução e, finalmente, avaliar os resultados utilizando uma métrica de qualidade. Nas simulações, avaliamos os resultados testando variações de diversos parâmetros, como resolução espacial do vídeo, resolução temporal, quantidade de movimento, número de dimensões da reconstrução, etc. Os resultados mostram que a técnica proposta apresenta melhor desempenho quanto a qualidade dos vídeos reconstruídos do que as outras técnicas testadas. Trabalhos futuros incluem testar novas configurações da técnica, testar novos métodos de reconstrução e avaliar a construção de um hardware que possa viabilizar a técnica em câmeras. ________________________________________________________________________________ ABSTRACT === Video acquisition in high temporal resolution has several aplications in science, industry, segurity, entertainment, sports, etc. However, high speed cameras are expensive and, therefore, there is a gread need for new acquisition methods. New computational cameras arquitecture have been using acquisition using common low speed cameras and compressive sensing theory for reconstructing high speed videos. But acquisition techniques present in literature show time dependence among the measures and throw away light information. This work presents a new linear acquisition method named Per-Pixel mirror-based measuring (PPM). The proposed method presents temporal independent measures and keeps 100% of light information. Our test methodology consists of simulating the acquisition methods present in literature and proposed method, acquiring measures from a set of videos (synthetic and natural), reconstructing the videos with the samealgorithmand, finally, comparingtheresultsusingaqualitymetric. Onsimulations, we evaluate the results testing variations considering temporal and space resolutions of the videos, ammount of video motion, number of reconstruction dimensions, etc. The results show that PPM presents better performance than other techniques with respect to the quality of the reconstructed videos. Future works include testing new configurations of the technique, testing new reconstruction methods and evaluating hardware contruction for bringing the technique to video cameras.
|