Summary: | A atual interação entre homens e computadores ocorre por meio de dispositivos físicos como mouses, teclados, trackballs, entre outros. Claramente, essa forma de comunicação difere daquela com que os homens se comunicam entre si, que se baseiam na fala; em expressões faciais e corporais; em gestos das mãos, etc, não sendo, portanto, naturais. Considerando-se que boa parte da interação envolve a manipulação de objetos, por exemplo, arrastar uma pasta, pressionar um botão ou controlar um personagem em um jogo, tem-se a interação baseada em gestos das mãos como uma candidata a tornar o processo mais natural. Os mecanismos mais populares que permitem a interação baseada em gestos são luvas repletas de sensores que captam os gestos executados e os transmitem para o sistema. Essa abordagem apresenta várias desvantagens em termos de uso casual por terem um alto custo financeiro, por esconderem a naturalidade do movimento da mão e por requererem um complexo processo de calibração para permitir medições precisas. Nesse contexto, a Visão Computacional surge como uma alternativa interessante, visto que pode ser implementada com simples câmeras web. O presente trabalho investiga algumas das etapas comuns em sistemas de visão computacional, direcionando-se no sentido de encontrar um conjunto de procedimentos que compostos possam permitir a identificação dos gestos produzidos pelas mãos.
|