Autetese

Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015. === Made available in DSpace on 2016-04-19T04:22:16Z (GMT). No. of bitstreams: 1 338165.pdf: 3669449 bytes, checksum: 28c27ca451ff6f6183a9f6d0...

Full description

Bibliographic Details
Main Author: Soldi, Rita de Cássia Cazu
Other Authors: Universidade Federal de Santa Catarina
Format: Others
Language:Portuguese
Published: 2016
Subjects:
Online Access:https://repositorio.ufsc.br/xmlui/handle/123456789/160797
Description
Summary:Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015. === Made available in DSpace on 2016-04-19T04:22:16Z (GMT). No. of bitstreams: 1 338165.pdf: 3669449 bytes, checksum: 28c27ca451ff6f6183a9f6d02036d480 (MD5) Previous issue date: 2015 === O número de sistemas embarcados já supera a quantidade de habitantes do nosso planeta e este número continua crescendo em ritmo acelerado. Ademais, o projeto de hardware e software está cada vez mais sofisticado e com requisitos mais rígidos para atender o exigente mercado. As consequências desta sofisticação afetam muito o desenvolvimento de software embarcado. Mesmo representando uma parcela minoritária do sistema embarcado, o software tornou-se responsável por cerca de 80% dos erros encontrados nos sistemas. Teste e depuração de software não é trivial, uma vez que é necessária a inspeção de todo o código fonte para se certificar de que o comportamento não difere das expectativas. Realizar essas atividades em sistemas embarcados é ainda mais desafiador, uma vez que os desenvolvedores precisam descobrir como otimizar o uso dos recursos, pois o teste em si tende a competir com o aplicativo sob teste pelos escassos recursos do sistema. Esta dissertação apresenta uma maneira de ajudar os desenvolvedores no processo de testar e depurar sistemas embarcados. Ela apresenta a Automação da execução de testes de software embarcado (AUTETESE), um ambiente que executa os casos de teste e emula as possíveis configurações do sistema, a fim de tentar encontrar erros na aplicação. Uma vez detectado um comportamento não especificado, o ambiente automaticamente executa a compilação, a depuração e a emulação de acordo com um arquivo de especificação. O AUTETESE é avaliado de maneira quantitativa para os critérios de tentativas realizadas versus a configuração de granularidade, o consumo de tempo para realizar o teste e depuração e o consumo de memória para suportar a execução de testes. Adicionalmente, o ambiente é avaliado de maneira qualitativa em um comparativo com ferramentas e técnicas correlatas. Os resultados mostraram que a estratégia proposta resultou em um ambiente flexível e com grande cobertura dos desafios propostos para atingir a automação de testes de software.<br> === Abstract : The number of embedded systems already exceed the number of inhabitants of this planet and this number continues to grow. Moreover, the design of hardware and software are increasingly sophisticated and more stringent requirements to meet the demanding market. The consequences of this sophistication greatly affect the development of the embedded software development. Even representing a minority of the embedded system, the software became responsible for about 80% of the errors found in the systems.Software testing and debugging is not trivial, once it needs a inspection of the entire source code to make sure that the behavior does not differ from expectations. Perform these activities in embedded systems is even more challenging, since developers need to figure out how to optimize the use of resources because the test itself tends to compete with the application under test for scarce system resources. This work presents a way to help the developers in the process of testing and debugging embedded systems. It features the automatic execution of embedded software testing (AUTETESE), an environment that runs the test cases and emulates the possible system settings in order to try to find errors in the application. Once detected an unspecified performance, the environment automatically performs compilation, emulation and debugging accordingly to the specification file.AUTETESE is evaluated quantitatively for the criteria of attempts versus granularity configuration, the time consumption for testing and debugging, and memory consumption to support the execution of tests. In addition, the environment is evaluated in a qualitative manner in comparison with related tools and techniques. Results show that the proposed strategy resulted in a flexible environment with high coverage to meet challenges posed by automation of software testing.